Ping An: Tecnologia de Segurança Reduz os Silos de Dados

As Intel® Software Guard Extensions ajudam a aplicar a aprendizagem federada à colaboração de dados de várias fontes para treinamento de IA.

Visão geral:

  • A equipe de tecnologia de aprendizagem federada da Ping An Technology está explorando maneiras de agregar dados de qualidade superior mais dimensionais a partir de mais fontes para melhorar o treinamento de modelos de IA.

  • Com base nos recursos das Intel® SGX, a Equipe de aprendizagem federada trabalhou com a Intel para projetar uma abordagem de treinamento de modelos de IA de 1+N fontes em sua solução de aprendizagem federada, resolvendo melhor os problemas de segurança de dados e de avaliação dos efeitos do treinamento.

author-image

Por

Alta qualidade e um alto volume de dados se tornaram fundamentais para que as empresas desenvolvam a sua competitividade em inteligência artificial (IA). E para a chinesa Ping An Technology, sua equipe de tecnologia de aprendizagem federada está explorando maneiras de agregar dados de qualidade superior mais dimensionais a partir de mais fontes usando a abordagem de aprendizagem federada para melhorar o treinamento de modelos de IA.

No entanto, o intercâmbio, a transmissão e a agregação de dados de várias fontes também trazem problemas complexos para a segurança de dados, especialmente em setores e indústrias com dados sigilosos, onde o risco de violação de dados é foco da atenção tanto das autoridades quanto do público em geral. Isso resultou na introdução de uma série de leis e regulamentos sobre a proteção de dados. Sem uma solução de colaboração de dados de várias fontes segura e confiável, seria difícil eliminar esses silos de dados de várias fontes, o desenvolvimento e adoção da aprendizagem federada sem dúvida seriam prejudicados.

Uma abordagem viável para resolver este problema é criar um Ambiente de execução confiável (TEE) em um hardware específico com o suporte de tecnologias de segurança aprimoradas por hardware para proteger dados e aplicações sigilosos contra acesso e ataques externos. Através de uma cooperação técnica aprofundada com a Intel, a Equipe de aprendizagem federada introduziu com sucesso a tecnologia Intel® Software Guard Extensions (Intel® SGX), um importante pilar da solução de TEE, às suas soluções de aprendizagem federada. Com isso, a Equipe de aprendizagem federada foi pioneira na implementação de treinamento de IA com uma solução de colaboração de dados de várias fontes, alcançando resultados importantes em áreas como seguros, saúde, voz inteligente e Internet de veículos (IoV) com muitos elogios dos usuários.

“A tecnologia de aprendizagem federada acelera o avanço da inteligência artificial ajudando a garantir a segurança dos dados e a proteção da privacidade. As Intel® Software Guard Extensions são ideais para desenvolver ambientes de execução confiável em hardware em soluções de aprendizagem federada. Por meio das instruções do processador, a solução cria zonas confiáveis em diferentes fontes de dados para acesso aos dados. Isso nos ajuda a melhorar o efeito do treinamento dos modelos de IA com dados de várias fontes através de uma melhoria na segurança dos dados.” —Dr. Jianzong Wang, engenheiro chefe adjunto, membro do conselho da Ping An Technology, vice-presidente do conselho da Guangdong Society of Artificial Intelligence and Robotics, Liga chinesa para o desenvolvimento de software de código aberto para inteligência artificial

As Práticas de Aprendizagem Federada Fortalecem a Evolução do Treinamento de IA

Algoritmos aperfeiçoados e potência de computação mais abundante tornam os dados de grande escala e alta qualidade um fator importante que afeta o desempenho da IA. No entanto, no processo de adoção da IA em vários setores, dados de treinamento de IA insuficientes produziram resultados fracos no treinamento de modelos de IA, visto que as fontes de dados que pertencem a diferentes empresas e departamentos são separadas umas das outras. Tradicionalmente, o sistema precisa integrar os dados para treinar modelos com dados de várias fontes. No entanto, esta abordagem não garante a segurança do intercâmbio de dados e aumenta o risco de vazamento de dados.

À medida que a segurança dos dados e a privacidade ganham cada vez mais atenção, os governos estão aumentando a sua proteção através de leis e regulamentos. Por exemplo, as “Diretrizes para a proteção da segurança de informações pessoais na Internet” publicadas oficialmente na China em abril de 2019 oferecem disposições claras para o compartilhamento e a transferência de informações pessoais, e reforça medidas para a proteção de informações pessoais.1 Em maio de 2019, a Administração do ciberespaço da China, juntamente com as autoridades competentes, elaborou as “Medidas para o gerenciamento da segurança de dados (Documento de consulta)”, que apresentam pareceres e requisitos para o processamento e utilização de dados, assim como para a supervisão e o gerenciamento da segurança de dados.2

O treinamento de IA exige um método seguro de agregação de dados para melhorar as capacidades de colaboração de dados de várias fontes. Com sua sensibilidade ao desenvolvimento de tecnologias de IA e big data, a Equipe de aprendizagem federada explora proativamente as abordagens de aprendizagem federada cada vez mais aperfeiçoadas. Diferente dos métodos de compartilhamento de dados tradicionais, os dados em cada nó na abordagem de aprendizagem federada são mantidos no local para o treinamento, de modo que cada fonte de dados participará e promoverá a otimização do modelo de inteligência artificial e compartilhará os resultados de otimização garantindo a privacidade dos dados.

Com base neste conceito, a Equipe de aprendizagem federada desenvolveu uma plataforma Hive para aprendizagem federada para oferecer aos usuários uma solução única para proteger a privacidade e a segurança dos seus dados. Ao desenvolver a plataforma, a solução precisa resolver vários problemas, por exemplo, como melhorar ainda mais a segurança dos dados de várias fontes no local, como oferecer uma garantia de segurança mais confiável para o processo interino de otimizar o modelo de IA e como avaliar efetivamente a contribuição de cada fonte de dados ao resultado final da otimização. A Equipe de aprendizagem federada e a Intel ofereceram uma solução melhor para esses problemas apresentando a tecnologia Intel® SGX.

Tecnologia de Segurança Aprimorada por Hardware Fortalece a Aprendizagem Federada

No processo de agregação de dados de várias fontes para implementar o treinamento do modelo de IA com o método de aprendizagem federada, os parâmetros dos modelos ou processos de IA precisam ser transmitidos e compartilhados em vários nós pela rede. Um fato bem conhecido é que quanto maior a exposição dos dados, maiores serão os riscos de segurança para os dados. Portanto, independente das infraestruturas ou sistemas operacionais em cada nó, ou dos dispositivos de rede, como roteadores e gateways, usados, estes podem trazer riscos de segurança, como vazamento e adulteração de dados, caso sejam “poluídos”.

Por exemplo, um hacker pode interceptar as mensagens de dados instalando um sniffer em um transmissor na rede, ou usando um ataque de inicialização a frio para ler a remanência de dados após o servidor ser reiniciado, ou até mesmo atacando os dados em memória diretamente usando métodos de snooping ou adulteração de memória. Com uma variedade de métodos de ataque possíveis, é difícil proteger o sistema e construir um mecanismo de proteção e prevenção ascendente abrangendo o software, o hardware e o sistema operacional. Os esforços para construir tal mecanismo são um desperdício de recursos e aumentarão o custo total de propriedade (CTP), sem necessariamente oferecer resultados satisfatórios em cenários de proteção reais.

Desenvolver uma solução de TEE para zonas confiáveis em hardware é uma melhor opção para resolver esses problemas. Um elemento chave na implementação desta solução, a Intel® SGX permite a criação de um “enclave” confiável em um hardware específico (como a memória), com barreiras de segurança para que dados e aplicações sejam limitados ao “enclave” e ao processador, como mostrado na Figura 1. Ao mesmo tempo, sua operação não depende de outro hardware ou software, o que significa que a segurança e a proteção dos dados são independentes do sistema operacional ou da configuração de hardware, de modo que mesmo se os drivers de hardware, máquinas virtuais ou o próprio sistema operacional forem atacados e destruídos, o vazamento dos dados pode ser evitado de forma mais eficaz.

Figura 1. A Intel® SGX melhora a segurança dos dados com “enclaves” confiáveis.

Com base nos recursos das Intel® SGX, a Equipe de aprendizagem federada trabalhou com a Intel para projetar uma abordagem de treinamento de modelos de IA de 1+N fontes em sua solução de aprendizagem federada, resolvendo melhor os problemas de segurança de dados e de avaliação dos efeitos do treinamento.

A nova arquitetura da solução 1+N é mostrada na Figura 2. Nela, um “enclave” agregador localizado no centro e N “enclaves” na borda implantados em outros locais formam uma rede. “Enclaves” no agregador e nos sistemas das fonte de dados são todos zonas confiáveis criadas na memória através de instruções de processadores fornecidas pela Intel® SGX.

Figura 2. Solução de aprendizagem federada usando Intel® SGX

Na solução 1+N, o que precisa ser transmitido em um canal criptografado são o modelo de IA a ser treinado, otimizado e os parâmetros intermediários relacionados, enquanto os dados de treinamento, o modelo de IA em texto simples e o algoritmo de IA são mantidos no nó onde cada fonte de dados está localizada. No processo de inicialização, os próprios “enclaves” gerarão os pares de chaves públicas e privadas, com a chave pública sendo registrada no agregador e a chave privada armazenada em seu respectivo “enclave”. Quando o treinamento começa, o agregador primeiro estabelece uma conexão criptografada com o “enclave” alvo. A chave criptografada simétrica para esta conexão é fornecida através da negociação usando o algoritmo assimétrico dos pares de chaves públicas e privadas, ajudando a evitar um ataque intermediário. Após a conexão ser estabelecida, o agregador primeiro criptografa o modelo de IA a ser treinado e o envia a cada “enclave”, e então cada “enclave” decodifica o modelo e o transmite ao ambiente de treinamento de IA local para treinar os dados locais. Após o treinamento, o ambiente de treinamento de IA local retorna os parâmetros intermediários do treinamento para o “enclave” local.

Em resposta às necessidades das empresas, a Equipe inovou a aprendizagem federada: todos os “enclaves” em cada um dos ambientes locais são agentes confiáveis para a federação, e conforme o algoritmo aplicado nos estágios posteriores for capaz de ser executado no “enclave” diretamente, os agentes confiáveis poderão fazer muito mais no ambiente local. Em seguida, o “enclave” criptografará os parâmetros intermediários na conexão criptografada e transmitirá de volta ao “enclave” agregador, que agregará rapidamente os parâmetros intermediários que recebeu e otimizará e ajustará o modelo de IA de acordo com os resultados antes de prosseguir para a próxima iteração.

À medida que os processos acima são implementados em “enclaves”, o modelo de IA e os parâmetros intermediários são transmitidos e compartilhados nos canais criptografados e nos “enclaves” sem nenhum contato com hardware ou software externos durante o looping e a iteração da solução, resultando em um “loop interno” mais seguro e confiável. Intel® Architecture Processors oferecem um poderoso suporte de computação para a construção do “enclave”, o estabelecimento dos canais criptografados, o intercâmbio e agregação dos parâmetros intermediários.

Para avaliar a contribuição de cada nó no efeito do treinamento na solução 1+N, todos os nós podem ser treinados primeiro para obter o efeito do treinamento do volume total quando houver N fontes de dados. Subsequentemente, os nós N-1, excluindo o nó a ser avaliado, são treinados separadamente (por exemplo, ao avaliar o nó 1, os nós 2 a N são treinados) e, após obter os modelos com diferentes efeitos de treinamento, o sistema calculará o “coeficiente de contribuição” de cada nó de dados na aprendizagem federada para obter uma avaliação mais precisa da contribuição de cada nó no treinamento de IA conjunto e ajustar a solução de acordo. Esses algoritmos e escalonamento podem ter um impacto no desempenho da aprendizagem federada e isso ainda precisa ser verificado na prática. No que diz respeito a como usar ainda mais o “enclave” construído com a tecnologia Intel®, há de fato muito o que explorar e descobrir.

Resultados das Principais Práticas de Aprendizagem Federada

Vamos tomar a aplicação da aprendizagem federada no setor de seguros como exemplo. Antes da aprendizagem federada, o vendedor determinaria o valor do prêmio em uma apólice com base apenas em informações básicas, como a idade e o sexo do cliente. No entanto, com o desenvolvimento contínuo da sociedade da informação, a quantidade e as características dos dados dos usuários aumentaram significativamente. Por exemplo, em termos de seguro de saúde, a precisão da avaliação de risco de saúde do segurado melhorará se o sistema da empresa puder fazer previsões habilitadas por IA usando grandes quantidades de dados, incluindo registros médicos e dados do histórico familiar para obter uma categorização da avaliação da saúde mais precisa.

No entanto, os registros médicos e o histórico médico são os tipos de dados que as instituições de saúde precisam manter absolutamente sigilosos. Não somente é impossível divulgar esses dados, como também é necessário aprimorar o nível de segurança para protegê-los. Agora, com a introdução de uma solução de aprendizagem federada, as seguradoras podem realizar o treinamento de IA em modelos de preços de seguros sem tocar nos dados do usuário. De acordo com o feedback da linha de frente de alguns projetos iniciais relacionados, a solução de aprendizagem federada 1+N pode melhorar significativamente o efeito dos preços de seguros personalizados.

Outlook

Com o aumento no valor dos dados, e devido à falta de proteção de dados eficaz em alguns setores, o fenômeno dos silos de dados está cada vez mais se tornando um problema. Em resposta a alguns desses desafios de dados IA para o desenvolvimento de IA, o Dr. Jianzong Wang, um pioneiro da aprendizagem federada na China e chefe da equipe de tecnologia de aprendizagem federada da Ping An Technology, tem guiado sua equipe a explorar ativamente a segurança dos dados e colaborações confiáveis em ambientes com diversas fontes dados. A Equipe usa métodos de aprendizagem federada avançados para lidar com os desafios de dados e acumularam uma riqueza de experiências inovando neste campo. Eles obtiveram muitas conquistas, oferecendo uma referência útil para a aplicação da aprendizagem federada em diferentes setores industriais.

Atualmente, a Equipe está usando o método de aprendizagem federada para desenvolver um modelo de aprendizagem polimórfico multitarefa para o setor financeiro, que é sujeito a uma forte supervisão a respeito dos dados. Este modelo é desenvolvido para atender às necessidades de bancos e instituições financeiras em vários cenários de aplicação, como avaliação de risco, anti-lavagem de dinheiro, consultoria de investimentos, pesquisa de investimentos, crédito, seguros e supervisão. Ao desenvolver este modelo, a Equipe tem o objetivo de ajudar usuários a alavancar as capacidades da IA para desenvolver modelos de controle de risco e marketing mais eficazes, além de identificar potenciais riscos financeiros, como fraude de cartão de crédito, empréstimos atrasados, fraudes financeiras, etc., reduzindo assim os riscos operacionais para instituições financeiras. Ao mesmo tempo, o método de aprendizagem federada pode ajudar usuários a utilizar dados horizontais para perfis de usuários, de modo a expandir os canais de vendas e otimizar estratégias de marketing, oferecendo um mecanismo inteligente para melhorar as capacidades de vendas.

No futuro, a Equipe de aprendizagem federada desenvolverá mais a cooperação tecnológica com a Intel para impulsionar a operação segura e a transformação eficiente dos recursos de dados na aprendizagem federada com um número crescente de tecnologias avançadas. E eles colaborarão com mais empresas e instituições para quebrar as barreiras de dados e promover o rápido desenvolvimento e a aplicação da aprendizagem federada em todas as esferas da vida.

Vantagens da Solução da Equipe de Aprendizagem Federada:

  • Por meio de instruções do processador, a Intel® SGX cria “enclaves” de memória que garantem uma maior segurança de dados em cada nó da aprendizagem federada para o intercâmbio e a transmissão de parâmetros intermediários, ajudando a evitar ataques internos e externos e oferecendo segurança mais confiável para a implementação e exploração da aprendizagem federada em um ambiente de dados de várias fontes.
  • A solução de aprendizagem federada 1+N com Intel® SGX integrada ajuda a avaliar com precisão a contribuição de dados em cada nó para o treinamento do modelo de IA e facilita a capacidade do usuário de ajustar a solução.

Baixar PDF ›