Intel® Tiber™ Secure Federated AI
Proteja dados confidenciais e propriedade intelectual e, ao mesmo tempo, aprimore a precisão do modelo.
Agora em Beta – Um Serviço de Treinamento Federado Pronto Para Uso Para Treinamento de Modelos de IA em Dados Privados
Os desenvolvedores exigem diversos conjuntos de dados do mundo real para criar modelos de IA robustos e generalizáveis, mas os regulamentos de privacidade dificultam a obtenção de conjuntos de dados com base em dados privados e confidenciais. A aprendizagem federada oferece uma solução, mas a arquitetura pode ser difícil de escalar, gerenciar, operar e implantar.
Esses desafios são o motivo pelo qual a Intel desenvolveu o Intel Tiber Secure Federated AI, um serviço pronto para uso projetado para treinar modelos de IA com segurança em dados privados usando aprendizado federado.
Comece Agora
Proteja dados confidenciais e propriedade intelectual e, ao mesmo tempo, aprimore a precisão do modelo.
Serviços de Confiança Intel® Tiber™
Saiba mais sobre o portfólio completo.
Entre em Contato com um Consultor
Comece a conversa com um representante da Intel para debater a melhor implantação para suas necessidades exclusivas.
Benefícios do Produto
O Intel Tiber Secure Federated AI usa técnicas de segurança baseadas em hardware, criptografia e algorítmicas para ajudar a garantir altos níveis de segurança para modelos e dados. Ao fornecer uma implementação pronta para uso do OpenFL, o serviço oferece várias vantagens importantes para nossos clientes.
Segurança e Privacidade Aprimoradas
Implementa medidas de segurança de confiança zero para proteger dados confidenciais e modelar a propriedade intelectual.
Precisão do Modelo Aprimorada
Treine seus produtos de IA em um conjunto de dados maior e mais diversificado para aprimorar a qualidade e a generalizabilidade.
Eficiência Operacional
Controle os custos reduzindo os esforços de duplicação e redação de dados.
Conformidade Normativa
Reforce o controle de acesso sobre quem está usando seus dados e como estão sendo usados.
Desenvolvimento Sobre a Base do OpenFL
O Intel Tiber Secure Federated AI é desenvolvido no OpenFL, uma estrutura de aprendizado federada de código aberto.
Em vez de enviar dados para um servidor central, o treinamento federado permite o treinamento do modelo localmente em cada dispositivo, sendo que apenas as atualizações do modelo são compartilhadas e adicionadas para melhorar o modelo geral. Isso ajuda a preservar a privacidade e a segurança dos dados, cumprir os requisitos de soberania de dados e proteger a propriedade intelectual.
O OpenFL tem sido amplamente utilizado em vários setores e é a única estrutura de aprendizado federada aprovada para uso na Estação Espacial Internacional.
Casos de Uso
Pesquisa Médica Colaborativa
Provedores de saúde, hospitais, clínicas e empresas de pesquisa em saúde usaram modelos de IA e aprendizado de máquina para analisar milhões de conjuntos de dados de pacientes para ajudar a entender, prever e prevenir vários tipos de doenças.
O Intel Tiber Secure Federated AI pode ser usado para treinar modelos de AI/ML, permitindo que várias partes contribuam para o modelo, trazendo o algoritmo para os dados. Isso ajuda a melhorar os resultados clínicos, já que os modelos de IA são mais robustos e generalizáveis, enquanto hospitais e clínicas mantêm o controle dos dados confidenciais dos pacientes.
Descoberta Antecipada de Medicamentos
A descoberta e desenvolvimento de novas terapêuticas é um processo que consome recursos e requer conhecimento em domínio especializado. Modelos generativos de aprendizado de máquina surgiram como ferramentas potentes para a descoberta de medicamentos, mas seu desempenho e generalizabilidade dependem muito dos dados que geralmente estão isolados em diferentes instituições e empresas de pesquisa.
A combinação desses dados poderia capturar uma distribuição mais abrangente e representativa, levando a um modelo mais robusto. No entanto, isso não é viável devido a questões de privacidade e outras preocupações legais, pressão competitiva e restrições técnicas.
O Intel Tiber Secure Federated AI pode ser usado para treinar esses modelos sem combinar conjuntos de dados. Isso permite que as empresas colaborem com segurança no treinamento de modelos e gerenciem questões com privacidade de dados.
Detecção de Fraudes
IA e aprendizado de máquina estão sendo cada vez mais usados para detectar fraudes em tempo real, mas muitos bancos de pequeno e médio porte não têm o volume de dados de transação necessário para treinar um modelo de detecção robusto. Vários bancos poderiam agregar seus dados de fraude, mas não podem devido a questões regulatórias.
O Intel Tiber Secure Federated AI pode ser usado para treinar modelos de detecção de fraude com segurança em vários bancos sem mover dados. Isso pode ajudar a reduzir perdas com uma detecção de fraudes mais precisa.
Recursos Adicionais
Perguntas frequentes
Perguntas frequentes
O Intel® Tiber™ Secure Federated AI é um serviço pronto para uso projetado para treinar modelos de IA com segurança em dados privados usando aprendizado federado. Isso ajuda a garantir que os dados sempre permaneçam sob a custódia do proprietário dos dados, independentemente de onde estejam armazenados – no local, na nuvem pública ou nuvem privada. O serviço usa segurança baseada em hardware, métodos criptográficos e técnicas algorítmicas para ajudar a garantir altos níveis de privacidade e segurança para modelos e dados.
O Federated learning (FL) é uma técnica de aprendizado de máquina que permite que modelos de IA sejam treinados em vários dispositivos ou servidores descentralizados que armazenam amostras de dados locais, sem movê-las. Em vez de enviar dados para um servidor central, o treinamento federado permite que o modelo seja treinado localmente em cada dispositivo, sendo que apenas as atualizações do modelo são compartilhadas e adicionadas para melhorar o modelo geral. Esse método preserva cada vez mais a privacidade e a segurança dos dados, ajuda a garantir o cumprimento das leis de soberania de dados e oferece proteções aprimoradas de propriedade intelectual.
O Intel Tiber Secure Federated AI é desenvolvido no OpenFL, uma estrutura de aprendizado federada de código aberto desenvolvida pela Intel como parte do projeto Linux Foundation LF AI and Data. O OpenFL tem sido amplamente utilizado em setores, como seguros, produtos farmacêuticos e saúde, e é a única estrutura de aprendizado federada aprovada para uso na Estação Espacial Internacional.
Ao fornecer uma implementação pronta para uso do OpenFL, o Intel Tiber Secure Federated AI oferece duas vantagens importantes para nossos clientes:
Configuração simplificada: fornece um processo de configuração fácil de usar que ajuda a reduzir a complexidade e o tempo necessários para estabelecer ambientes de aprendizado federados.
Recursos de segurança aprimorados: implementa medidas de segurança de confiança zero projetadas para proteger dados confidenciais e modelar a propriedade intelectual.
Os desenvolvedores de modelos exigem diversos conjuntos de dados do mundo real para criar modelos de IA robustos e generalizáveis. O Intel Tiber Secure Federated AI é projetado para melhorar o desenvolvimento de modelos com técnicas seguras e de preservação da privacidade que ajudam as organizações a treinar modelos de forma colaborativa em dados distribuídos.
O Intel Tiber Secure Federated AI é projetado para permitir a colaboração de dados, permitindo que instituições treinem modelos de IA usando dados descentralizados, mantendo-os seguros e privados. O serviço usa segurança baseada em hardware (incluindo computação confidencial e certificação de hardware e carga de trabalho), métodos criptográficos e técnicas algorítmicas projetadas para altos níveis de privacidade e segurança para modelos e dados.
Seus dados são armazenados localmente em cada site ou instituição de dados em um sistema de IA federado, onde os proprietários dos dados mantêm a custódia total de seus conjuntos de dados confidenciais sem precisar centralizá-los. Essa abordagem descentralizada ajuda a garantir que seus dados permaneçam seguros e privados, permitindo o treinamento e avaliação de modelos colaborativos.
Entre em contato com seu representante da Intel para obter mais informações sobre nosso produto e programa beta.