Com o avanço de aplicações de IA como veículos autônomos, monitoramento contínuo da saúde e análise de fraudes em tempo real, as empresas precisam processar dados com altíssima velocidade, e isso exige proximidade com o ponto onde os dados são gerados e utilizados. Ao mesmo tempo, questões como privacidade, soberania de dados e exigências regulatórias reforçam a necessidade de manter essas informações perto da origem.
À medida que a IA se consolida como tecnologia estratégica nas organizações, cresce o reconhecimento da importância das soluções em edge dentro da arquitetura de TI. Empresas que ainda dependem exclusivamente da cloud ou de data centers tradicionais já percebem as limitações do processamento centralizado para workloads de inferência que exigem baixa latência.
Se o processamento da sua IA é feito na cloud, você:
- Tem menos controle sobre os dados, o que pode gerar problemas de conformidade.
- Enfrenta custos mais altos para transferir dados de entrada e saída da cloud, tanto pelas taxas de egress quanto pelo custo da rede de transporte.
- A transferência de dados leva tempo demais para aplicações sensíveis à latência, tornando inviável a inferência de IA em tempo real.
- Mesmo quando há regiões de cloud locais disponíveis, ainda é preciso pagar taxas de egress para mover dados até um local centralizado para treinamento.
Se o processamento da sua IA é feito em um data center centralizado, você:
- Tem mais controle sobre os dados do que na cloud, mas a localização pode não atender aos requisitos de residência de dados.
- Ainda há alta latência e congestionamento de rede na transferência de dados.
- A capacidade de escalabilidade pode ser limitada à medida que o volume de dados cresce.
Em ambos os casos, modelos de processamento centralizado podem gerar gargalos para cargas de trabalho de IA devido à distância que os dados precisam percorrer, além de consumir boa parte do orçamento destinado à IA. Algumas organizações em fases iniciais de adoção de IA acreditam que sua infraestrutura atual de cloud ou data center já é suficiente, mas, ao levar os projetos de IA do teste à produção, essa estrutura pode acabar comprometendo os resultados esperados.
A melhor maneira de avançar é uma abordagem distribuída para a IA, em que alguns dos principais aspectos de um fluxo de trabalho de IA ocorrem em locais do edge e outros em um data center centralizado. A inferência de IA, o fine-tuning e alguns treinamentos específicos por domínio precisam acontecer na edge para garantir a menor latência possível. Já o treinamento de modelos gerais de IA pode ser feito em infraestruturas centralizadas ou na nuvem, onde é mais fácil escalar e agregar múltiplas fontes de dados. Essa abordagem exige o uso de uma infraestrutura híbrida interconectada, que incorpore hubs digitais em locais na edge. Organizações que ainda não têm uma estratégia de edge precisarão desenvolver uma, pois aproximar o poder de computação das fontes de dados é o que viabiliza o processamento de baixa latência exigido pelas aplicações de IA.
Por que a latência é importante para a IA
Há três aspectos da latência a serem considerados nas aplicações de IA:
- O tempo necessário para mover dados do objeto que gera esses dados para o nó de inferência
- O tempo que o nó de inferência leva para processar os dados com o modelo treinado
- O tempo que o nó de inferência leva para responder com uma ação em um dispositivo ou para elaborar um relatório
Essas transferências de dados podem levar apenas alguns milissegundos se você estiver em um local da edge, mas se precisar fazer o backhaul dos dados para um local central, a latência pode ser prejudicial.
Figura 1: Usar um data center centralizado pode aumentar os custos e o tempo de transferências de dados
Baixa latência é especialmente importante para a inferência de IA, pois pode impactar negativamente a experiência do usuário, os custos operacionais – e, em alguns casos, até a vida e a segurança das pessoas. Considere os seguintes exemplos:
- Veículos autônomos precisam ser capazes de responder instantaneamente quando os dados dos sensores indicam que há um pedestre à frente, para evitar acidentes.
- Sistemas de ambulâncias conectados utilizam nós de rede da edge para processar os sinais vitais dos pacientes e os dados de diagnóstico em tempo real durante o transporte, o que ajuda os hospitais a se prepararem para as emergências que chegam.
- As empresas de serviços públicos e de produção de energia precisam responder rapidamente às mudanças climáticas e emergências por motivos de segurança.
- Na automação industrial, os modelos de IA no edge analisam instantaneamente os dados dos sensores e câmeras, permitindo respostas imediatas a eventos críticos, como anomalias nos equipamentos, defeitos nos produtos ou mudanças ambientais repentinas, como picos de temperatura.
Em todos esses casos, as organizações não podem arcar com a latência que o processamento centralizado ou baseado em cloud acarreta.
A inferência de IA precisa acontecer na edge
Dado que o treinamento de IA envolve grandes volumes de dados e, em grande parte, não é limitado pela latência, o processamento centralizado faz sentido. A infraestrutura centralizada está mais bem equipada para lidar com a escala necessária, e o treinamento pode ser interrompido enquanto se aguarda o recebimento de novos dados.
A inferência de IA, por outro lado, é acionada por novos dados enviados e recebidos dos dispositivos. Um nó de inferência precisa reagir rapidamente a esses dados, portanto, não há tempo para que eles sejam enviados de volta a um local central para processamento. Se o nó de inferência estiver próximo dos dados, ele pode desencadear uma ação em tempo real. Com nós de inferência em vários locais de edge em toda a infraestrutura empresarial, as empresas podem melhorar a disponibilidade do serviço e implantar modelos de IA específicos para cada domínio que funcionam com um conjunto de dados mais restrito e podem acelerar os treinamentos e reduzir os requisitos de computação. Exemplos incluem análise de imagens médicas ou assistência no diagnóstico de doenças. A infraestrutura de edge também permite serviços específicos de localização, como análise de vídeo em tempo real para segurança aeroportuária.
No entanto, a IA de edge não se resume apenas à latência; ela também oferece benefícios em termos de custo e privacidade. No exemplo das ambulâncias conectadas acima, o processamento local de dados na network edge pode reduzir significativamente a latência em comparação com soluções exclusivamente em cloud, permitindo alertas em tempo real, como a detecção de AVC, que podem economizar minutos vitais em atendimentos de emergência. Além disso, o processamento local de dados minimiza o uso da largura de banda e aumenta a privacidade dos dados, transmitindo apenas resumos essenciais. Isso protege as informações confidenciais dos pacientes, mantendo a eficiência operacional. Da mesma forma, na automação industrial, a IA edge pode eliminar atrasos do processamento baseado em cloud e garantir que as decisões sejam tomadas em tempo real. Isso pode ajudar a aumentar a eficiência operacional, reduzir o tempo de inatividade e melhorar a segurança geral e a qualidade do produto em ambientes industriais e de manufatura.
O papel da tecnologia de rede na computação edge para IA
Novas tecnologias de rede, como o acesso direto à memória remota (RDMA), estão surgindo como revolucionárias ao enfrentar os desafios das redes “longas e pesadas”, ou seja, aquelas com alta largura de banda e latência em distâncias extensas. O RDMA permite o acesso direto à memória entre sistemas sem envolver a CPU, reduzindo significativamente a latência e aumentando a taxa de transferência. Isso é crucial para cargas de trabalho de IA que exigem transferências de dados rápidas e em grande escala entre nós de inferência de edge e clusters de treinamento centralizados.
RDMA e computação edge podem trabalhar juntos para minimizar a latência para IA. O RDMA acelera a transferência e a agregação de dados, e a infraestrutura edge reduz a distância que eles precisam percorrer para serem processados. O RDMA, portanto, ajuda na adoção de uma abordagem distribuída para IA, permitindo a distribuição estratégica de dados entre a infraestrutura edge e a infraestrutura central. Do ponto de vista comercial, a adoção dessas soluções não apenas acelera os ciclos de implantação da IA, mas também aumenta a eficiência operacional, permitindo insights em tempo real e inovação mais rápida em escala.
Uma infraestrutura de edge interconectada
Na era da inteligência baseada em dados, a computação edge é imprescindível. O sucesso da IA depende, em última análise, da colaboração entre o treinamento centralizado e a inferência local. Para isso, você precisa de uma infraestrutura edge interconectada nos locais certos, perto de suas fontes de dados e usuários finais, e conectada a clouds, provedores de SaaS e outros parceiros em seu ecossistema de IA.
Figura 2: Hubs digitais interconectados na edge
Com mais de 270 data centers em 76 mercados em todo o mundo, a Equinix tem alcance global para dar suporte às suas implantações de edge para IA. Em nossos data centers de alto desempenho e preparados para IA, você pode implantar uma infraestrutura flexível onde precisar, otimizando custos e mantendo a conformidade regulatória.
Para obter mais informações sobre a importância da computação edge para reduzir a latência da rede para IA, baixe nosso white paper Where edge meets AI opportunity.

