3 tendências que estão conduzindo arquiteturas de inteligência artificial

A implantação de IA em escala requer compartilhamento de dados + multicloud híbrida + poder de computação em edge

Kaladhar Voruganti
3 tendências que estão conduzindo arquiteturas de inteligência artificial

Não há dúvida de que a adoção de inteligência artificial (IA) nos negócios está crescendo. Os desafios permanecem, no entanto, à medida que as empresas procuram implantar protótipos de IA em escala. Enquanto uma prova de conceito em um laboratório ou cloud pública pode usar apenas algumas fontes de dados, um aplicativo típico de IA/Análise de Dados em produção utilizará muitas fontes externas de dados. E com elas gerando conjuntos de dados cada vez mais robustos na edge, decisões importantes precisam ser tomadas em torno da operacionalização da alocação do poder de computação; de como os dados serão selecionados e administrados; e de como modelos de IA serão treinados e aprimorados — incluindo quem firmar parcerias para compartilhamento de dados.

A Platform for Data Scientists - Inside Equinix

Data scientists want a simplified, more productive workflow that supports rapid iteration, and IT teams want an enterprise-grade platform that scales cost-effectively without breaking budgets. The test drive solution brings together industry-leading AI hardware from NVIDIA and NetApp alongside best-in-class software technology from Core Scientific, all directly connected on Platform Equinix.

Read More
AI_Test_Drive_Hero_Banner750

Para solucionar esses desafios, convém estar atento às três principais tendências que têm impulsionado as arquiteturas de IA:

 

Tendência 1 – O compartilhamento de dados é essencial para a precisão de modelos de IA

Os algoritmos de IA são tão bons quanto os dados utilizados para estruturá-los e geralmente precisam de fontes de dados externas adicionais para maior precisão e sensibilidade contextual. Por exemplo, um modelo de IA construído para prever a propagação de COVID-19 em uma cidade densamente povoada, como Cingapura, não funcionará bem para uma área rural de grande extensão nos EUA. Dados locais adicionais como clima, demografia, status de testes, sistema de saúde, entre outros devem ser aplicados ao modelo de IA para que este forneça previsões de maior precisão. O compartilhamento de dados entre organizações é essencial para que isso funcione bem, mas pode ser algo desafiador tendo em vista preocupações com governança e privacidade. Os requisitos de confidencialidade variam de acordo com os dados que são compartilhados, o que está levando a diferentes tipos de modelos de compartilhamento de dados, como os três exemplos representados abaixo.

Enviando os dados para processamento (data to compute): este modelo de compartilhamento de dados, atualmente o mais comum, é normalmente usado para os não considerados sensíveis. Nesse modelo, os provedores enviam seus dados a um mercado de dados público na cloud para compartilhamento com os consumidores de informação. Algumas empresas estão empregando uma arquitetura híbrida em que seus dados são armazenados em um local neutro na cloud, como a Plataforma Equinix®, e movidos, sob demanda, para a cloud apropriada, para processamento de IA relevante ou compartilhamento com parceiros.

Levando o processamento até os dados (compute to data): para dados de maior sensibilidade, como informações de pacientes ou transações, as empresas hesitam em permitir que saiam de suas instalações. Por exemplo, os hospitais procuram compartilhar informações entre si para construir modelos de IA mais precisos, todavia, por motivos de confidencialidade, eles não desejam compartilhar dados brutos contendo registros de pacientes individuais. Nesses casos, o processamento de IA é feito no local em que os dados brutos residem. Depois que estes são processados, apenas os insights resultantes, metadados anônimos ou modelos de IA são compartilhados.

3 tendências que estão conduzindo arquiteturas de IA:

1. O compartilhamento de dados é essencial para a precisão de modelos de IA.
2. Modelos e serviços inovadores de IA em cloud pública estão guiando a arquitetura multicloud híbrida.
3. Os crescentes volumes de dados, latência, custo e considerações regulatórias estão reorientando o gerenciamento e processamento de dados de IA para uma arquitetura de "cloud-out and edge-in".

Este tipo de paradigma de compartilhamento também está impulsionando novas técnicas e frameworks de aprendizagem federados de IA. Em um framework de aprendizagem federado, as análises e a inferência do modelo são movidas para a edge e apenas os modelos de IA locais são movidos para os data centers e clouds para construção e treinamento globais de modelos de IA. Isso significa que apenas os modelos são passados adiante, em vez dos dados brutos, como mostra o diagrama a seguir.

A aprendizagem federada também ajuda a garantir que os dados brutos sejam mantidos no mesmo local em que foram gerados para fins de conformidade. Muitos países promulgaram ou estão em processo de promulgação de leis referentes à residência de dados que exigem que estes sejam mantidos em uma localização geográfica específica. Nesses casos, as empresas devem executar seu processamento de IA dentro de limites geográficos e em determinados países.

Levando o processamento e os dados para um local neutro (compute and data to a neutral location): em alguns casos, os provedores de dados não desejam compartilhar suas informações brutas, e os consumidores de dados não querem compartilhar seus algoritmos de IA. Os mercados de dados baseados em consórcios em uma plataforma de interconexão global independente quanto a fornecedores, como a Plataforma Equinix®, auxiliam as empresas na compra e venda de dados/algoritmos com segurança e conformidade, bem como na elaboração de seus modelos de IA. Em muitos casos, já acontece o intercâmbio de dados a nível da rede entre diferentes provedores e empresas em um hub de interconexão neutro como a Plataforma Equinix, sendo, portanto, o local ideal para realizar também o intercâmbio de dados no nível mais elevado para o treinamento de modelos de IA.

 

Tendência 2 – Modelos e serviços inovadores de IA em cloud pública estão guiando a arquitetura multicloud híbrida

Atualmente, instituições de uma série de setores não estão em posição de criar modelos de IA do zero. Em vez disso, desejam ampliar os modelos de IA existentes com seus próprios dados contextuais para criar novos modelos. Como esses modelos de IA pré-configurados exigem uma quantidade de dados e poder de computação consideráveis para o treinamento, geralmente são oferecidos apenas pelos principais provedores de serviços em cloud (CSPs). As empresas desejam potencializar esses algoritmos/modelos sofisticados de IA nas clouds para tarefas de processamento como reconhecimento de imagem/vídeo, tradução de linguagem natural, etc., ao mesmo tempo mantendo o controle sobre seus dados. A maioria das empresas também aspira ao uso de modelos e serviços de IA de diferentes clouds para alcançar o máximo nível de inovação e evitar a dependência de fornecedores. Isso está incitando a necessidade de uma infraestrutura multicloud híbrida e distribuída para o processamento de dados de IA, conforme descrito abaixo.

A Plataforma Equinix fornece conectividade para mais de 2.900 provedores de serviços de cloud e de TI em mais de 55 áreas metropolitanas, em uma única plataforma de interconexão, permitindo que as empresas implantem com facilidade arquiteturas multicloud híbridas com o provedor de sua escolha. E com o Equinix Cloud Exchange Fabric® (ECX Fabric®), as empresas podem facilmente estabelecer conectividade definida por software seguro e de alta velocidade para outras localidades, parceiros ou empresas em minutos através de um portal de autoatendimento. Isso inclui armazenamento como serviço (de parceiros) que as empresas podem usar para fomentar esse modelo de IA híbrido. Além disso, com a aquisição da Packet, a Equinix agora também fornece computação automatizada em servidores bare metal como um serviço, que permite às empresas tornar seus dados anônimos antes de movê-los para as clouds públicas para processamento.

 

Tendência 3 – Os crescentes volumes de dados, latência, custo e considerações regulatórias estão reorientando o gerenciamento e processamento de dados de IA para uma arquitetura de “cloud-out and edge-in”

O volume de dados está crescendo exponencialmente em todos os lugares, incluindo a edge. Por exemplo, um carro conectado pode gerar até mais de 3 terabytes de dados por dia, enquanto uma fábrica inteligente pode gerar 250 vezes essa quantidade diariamente. [i] O processamento de IA está se deslocando em direção à edge devido a custo, latência e conformidade. Como retratado na figura abaixo, existem diferentes tipos de edges que impactam a alocação do processamento de IA.

Cloud-Out e Edge-In são dois fenômenos chave de processamento relacionados à maneira como a IA está migrando de um modelo centralizado para um modelo distribuído.

Cloud-out significa que parte do processamento de IA está movendo-se em direção à edge: tanto o treinamento de IA quanto as operações de inferência estão migrando da cloud centralizada para a edge da seguinte maneira:

A inferência de IA está se deslocando para a edge: muitos aplicativos em tempo real como vigilância por vídeo, realidade aumentada/virtual (AR/VR) ou jogos multiplayer não são capazes de suportar a latência de envio de solicitações a um modelo de IA nas clouds centrais para obter uma resposta. Para esses casos práticos, a inferência de IA precisa acontecer na edge do dispositivo ou na micro edge. Em muitos mercados, os data centers existentes da Equinix podem fornecer uma latência completa, de ida e volta, de < 5 ms e, portanto, podem hospedar esses casos de uso de inferência de IA. Muitos casos de uso de vigilância por vídeo e compras em lojas inteligentes demandam latência de rede de ida e volta entre 15-20 ms. Os data centers da Equinix são perfeitamente adequados para hospedar esses casos de uso de inferência de IA.

O treinamento de IA está se deslocando para a edge metropolitana: à medida que mais dados são gerados na edge e os conjuntos de dados da IoT se tornam mais robustos, as empresas não querem executar um backhaul desses dados em redes lentas, caras e de alta latência para uma cloud central para treinamento de modelos de IA. Além disso, certos tipos de dados devem ser mantidos no local para fins de privacidade ou residência de dados; mais de 132 países já promulgaram ou estão em processo de adoção de leis de privacidade/residência de dados. [ii] Isso é ideal para técnicas federadas de treinamento de modelos de IA a fim de desenvolver modelos de IA na edge (compute to data) e, em seguida, agregar esses modelos de IA locais (potencialmente não otimizados) a um data center estratégico para a construção de melhores modelos globais de IA. O aprendizado federado também auxilia na garantia de que os dados brutos sejam mantidos no mesmo local em que foram gerados para conformidade de dados. Ademais, deslocar processos de análise objetivando maior proximidade à edge melhora o desempenho e eficiência em relação aos custos.

 

Edge-in significa que a aprendizagem profunda e o treinamento de modelos estão se movimentando da edge mais afastada para a edge metropolitana:

A inferência de IA está migrando para a edge metropolitana: a inferência de IA sensível à latência não pode se dar em uma cloud pública. Em muitos casos, as operações de inferência podem ocorrer nas edges do dispositivo, nas micro edges ou naquelas de regiões metropolitanas. No entanto, em função de custos e de fusão de dados, é vantajoso avançar na hierarquia de edge (edge-in). Por exemplo, câmeras inteligentes podem realizar inferência de IA a nível de dispositivo, mas esses dispositivos podem ser caros. Por outro lado, câmeras padrão podem ser usadas se o processamento de inferência de IA avançar na hierarquia de edge para uma micro edge ou edge metropolitana (dependendo dos requisitos de latência). E, exceto para operações críticas que requerem menos de cinco milissegundos (5ms) de latência de ida e volta, isso deve satisfazer os requisitos de latência em tempo real com um custo mais otimizado. Ademais, em muitos casos de uso, os dados de fontes externas e bancos de dados adicionais precisam ser combinados para garantir um modelo mais preciso. Devido aos seus requisitos de computação e de recursos de armazenamento, essas fontes de dados adicionais geralmente não podem ser hospedadas com facilidade no dispositivo ou micro edges. Além disso, com o surgimento da tecnologia de rede 5G, maiores níveis de processamento podem ser transferidos dos dispositivos para as micro edges e edges metropolitanas em razão de latências mais baixas e melhor bandwidth (em português, largura de banda).

Treinamento de IA na edge metropolitana: o hardware que executa o treinamento do modelo de IA conta com requisitos de energia elevados (30-40KW para um rack totalmente carregado), portanto não pode ser hospedado na micro edge. Além disso, a maioria dos data centers privados também não estão equipados para lidar com mais de 10-15 KW por rack, então o hardware de treinamento de IA normalmente precisa ser hospedado em um data center de colocation. Também é vantajoso posicionar o hardware de treinamento de IA em um data center rico em interconexão como a Plataforma Equinix – conforme mostrado na figura abaixo – devido a 1) conectividade de alta velocidade para várias clouds e redes; 2) uma presença global para que você possa cumprir com requisitos de residência de dados, e 3) um ecossistema global dinâmico de quase 10.000 empresas. Em muitos casos, a empresa externa que possui os dados necessários já está associada à Equinix.

Faça um test drive de IA como um serviço na edge

A Equinix, em parceria com a NVIDIA, NetApp e Core Scientific, está fornecendo um test drive de IA como um serviço em uma sandbox na Plataforma Equinix com os seguintes benefícios:

  • Um serviço cloud-native (baseado em contêiner) que facilita o consumo de serviços de IA por parte de cientistas de dados;
  • Um conjunto de tecnologias de IA de ponta no setor, que consiste em tecnologias de computação, rede e armazenamento de alto desempenho otimizadas para executar todos os principais frameworks de software de IA;
  • Uma plataforma de data center global e altamente interconectada que fornece interconexão segura e de alta velocidade para sistemas de TI e fontes de dados distribuídas entre clouds públicas, data centers privados e locais de edge;
  • A proximidade com a edge na maioria das áreas metropolitanas (menos de 10 ms dos dispositivos finais) permite a inferência de IA e o treinamento na edge metropolitana, ajudando as empresas a cumprir com os requisitos de residência de dados, bem como evitando redes caras de longa distância, lentas e de alta latência;
  • A conectividade de alta velocidade e baixa latência para as clouds públicas (entre 1-2ms para a maioria das clouds de maior destaque em áreas metropolitanas estratégicas) através do ECX Fabric facilita arquiteturas multicloud híbridas de IA;
  • Acesso aos maiores ecossistemas digitais e empresariais de clouds, provedores de rede, empresas de serviços financeiros, empresas de comunicação e outras empresas no mundo todo na Plataforma Equinix, permitindo que as empresas compartilhem os dados e modelos de IA necessários para que acelerem o desenvolvimento de infraestruturas, produtos e serviços de IA.

 

Saiba mais sobre como testar o Equinix AI as a service, executado com tecnologia dos parceiros NVIDIA, Core Scientific e NetApp.

Você também pode ter interesse no webinar sobre Aceleração da Transformação Digital com IA e na leitura do white paper “Inteligência Artificial: Da Cloud Pública à Edge do Dispositivo”.

 

 

[i] Cisco, Connected Car – The Driven Hour, Feb 2019; IBM, Smart Factory, The average factory generates 1 TB of production data daily.

[ii] SSRN, Greenleaf, Graham, Global Tables of Data Privacy Laws and Bills (6th Ed January 2019). (2019) Supplement to 157 Privacy Laws & Business International Report (PLBIR), Feb 2019.

Atualmente, instituições de uma série de setores não estão em posição de criar modelos de IA do zero. Em vez disso, desejam ampliar os modelos de IA existentes com seus próprios dados contextuais para criar novos modelos.
Kaladhar Voruganti
Kaladhar Voruganti Sr. Fellow, Technology and Architecture, Office of the CTO