Desbloqueando o Potencial da IA Generativa

O objetivo da Intel é dar suporte a todos os modelos de Inteligência Artificial, incluindo IA generativa, com perspectivas e princípios responsáveis.

A inteligência artificial generativa (IA) descreve os algoritmos usados para criar novos dados que podem se parecer com conteúdo gerado por humanos, incluindo áudio, código, imagens, texto, simulações e vídeos. Esta tecnologia é treinada com conteúdo e dados existentes, criando o potencial para aplicações como processamento de linguagem natural, visão computacional, metaverso e síntese de fala.

A IA Generativa não é nova. É a tecnologia que criou os assistentes de voz, jogos em evolução infinita e chatbots.

Recentemente, várias ferramentas de IA poderosas, como ChatGPT e DALL· E 2, tem sido usado como IA geradora, permitindo que as pessoas construam aplicativos neles e experimentem e postem os resultados online. Você pode ter visto uma em ação quando perfis sociais foram inundados com fotos historicamente inspiradas da MyHeritage IA Time Machine, que usa IA para gerar imagens hipotéticas da aparência de uma pessoa se vivesse em épocas diferentes.

Embora alguns compartilhem preocupações sobre o potencial da IA geradora para ameaçar empregos, há uma oportunidade maior de usar a IA geradora de forma responsável para melhorar a eficiência e a criatividade das pessoas.

A equipe de Trusted Media da Intel trabalha para construir aplicações generativas de IA com os humanos em mente A equipe se esforça para criar IA que melhore a vida das pessoas, limite danos e construa ferramentas para tornar outras tecnologias mais naturais. E ele faz tudo com responsabilidade em cada etapa do processo, não apenas no final.

Abordagem da Intel para IA Generativa

Nos últimos anos, a IA generativa tornou-se mais poderosa – e mais capaz de fazer coisas problemáticas de maneira mais convincente e realista.

Por exemplo, modelos geradores para deepfakes visam imitar as pessoas. Defendemos isso de duas maneiras. A primeira é com nossos algoritmos de detecção de deepfake integrados em nossa plataforma em tempo real. O FakeCatcher, o núcleo do sistema, pode detectar vídeos falsos com uma taxa de precisão de 96%, permitindo que os usuários dissiem entre conteúdo real e falso em tempo real. A segunda é através de nossos geradores responsáveis, um dos quais faz quebra-cabeças humanos. Em oposição à criação de imagens por treinamento em rostos de pessoas reais, este gerador mistura e combina regiões (nariz da pessoa A, boca da pessoa B, olhos da pessoa C, etc.) para criar uma face inteiramente nova que já não existe em um conjunto de dados.

Acreditamos que a IA não deve apenas prevenir danos, mas também melhorar vidas. Para atender a essa visão, o projeto de síntese de fala da equipe visa permitir que pessoas que perderam suas vozes conversem novamente. Esta tecnologia é usada no projeto de storybook digital I Will Always Be Me da Intel em parceria com a Dell Technologies, a Rolls-Royce e a Associação de Motor Neuron Disease (MND). O site interativo permite que qualquer pessoa diagnosticada com MND ou qualquer doença que se espera que afete sua capacidade de falar, grave sua voz para ser usada em um dispositivo de fala assistida.

Por fim, a equipe de pesquisa de mídia confiável também está trabalhando no uso da IA generativa para tornar as experiências em 3D mais realistas. Por exemplo, o CARLA da Intel é um simulador de condução urbana de código aberto desenvolvido para suportar o desenvolvimento, treinamento e validação de sistemas de condução autônomos. Usando IA generativa, as cenas em torno do driver seriam mais realistas e naturais. As abordagens generativas da inteligência artificial da Intel também simplificam a criação e renderização de fluxos de trabalho em 3D, economizando horas para artistas 3D e fazendo com que os jogos sejam executados muito mais rapidamente.

O Papel da IA Responsável

Entendemos que não podemos confiar em resultados de IA geradora sem entender o processo pelo qual esses sistemas funcionam. A Intel há muito reconhece a importância das implicações éticas e sociais associadas à implantação desses avanços tecnológicos. Isso é especialmente verdade para aplicações de IA, pois permanecemos comprometidos em aproveitar os melhores métodos, princípios e ferramentas para garantir práticas responsáveis em cada etapa de nossos ciclos de produtos. À medida que a IA gerativa evolui, é fundamental que os seres humanos permaneçam no centro deste trabalho. A IA responsável por começar com um projeto e desenvolvimento de sistemas, não com a limpeza depois que eles são implantados.

É importante treinar sistemas de IA para que eles não gerem materiais prejudiciais. É aqui que nossa estrutura de IA Responsável é importante. Melhoramos a segurança e a proteção, conduzindo processos rigorosos e multidisciplinares de revisão ao longo do ciclo de vida do desenvolvimento. Isso inclui estabelecer diversas equipes de desenvolvimento para reduzir vieses, desenvolver modelos de IA que seguem princípios éticos, avaliar extensivamente nossos resultados de perspectivas técnicas e humanas e colaborar com parceiros do setor para mitigar usos potencialmente prejudiciais da IA.

Esta estrutura garante que estamos encontrando maneiras de implementar positivamente esta tecnologia e manter as pessoas no controle de como eles podem aproveitar melhor a IA. Uma abordagem multidisciplinar permite aprofundar nossos conhecimentos e foco para aproveitar oportunidades no próspera setor de IA, enquanto trabalha dentro de parâmetros éticos, morais e de privacidade estabelecidos.

O que vem a seguir

Nosso objetivo é dar suporte a todos os modelos de IA, incluindo IA generativa, com perspectivas e princípios responsáveis. Garantir a presença de uma perspectiva humana em todas as fases do desenvolvimento permite que essa tecnologia seja mais aplicável, colaborativa e menos prejudicial.

Estou ansioso para ver como o impulso de IA geradora cresce e fazer parcerias com minha equipe na Intel e em todo o setor para garantir seu avanço responsável.

Ilke Demir é um cientista sênior da equipe de pesquisa da Intel Labs.