Por Lama Nachman
A inteligência artificial (IA) tornou-se uma parte fundamental da vida cotidiana, transformando a forma como vivemos, trabalhamos e resolvemos novos e complexos desafios. Desde tornar possível o banco de voz para pessoas com condições neurológicas para ajudar veículos autônomos a tornar as estradas mais seguras e ajudar os pesquisadores a entender melhor os padrões de chuva e as tendências da população humana, a IA nos permitiu superar barreiras, tornar as sociedades mais seguras e desenvolver soluções para construir um futuro melhor.
Apesar dos muitos benefícios da IA na vida real, Hollywood adora contar histórias alarmantes de IA assumindo uma mente própria e ameaçadoras. Esses cenários de ficção científica podem nos distrair das maneiras muito reais, mas mais banais, nas quais sistemas de IA mal projetados podem prejudicar as pessoas. É fundamental que nos esforcemos continuamente para desenvolver tecnologias de IA de forma responsável para que nossos esforços não marginalizem as pessoas, usem dados de maneiras antiéticas ou discriminam diferentes populações — especialmente indivíduos em grupos tradicionalmente sub-representados. Estes são problemas que nós, como desenvolvedores de sistemas de IA, estamos cientes e estamos trabalhando para prevenir.
Na Intel, acreditamos no potencial da tecnologia de IA para criar mudanças globais positivas, capacitar as pessoas com as ferramentas certas e melhorar a vida de cada pessoa no planeta. Há muito tempo somos reconhecidos como uma das empresas mais éticas do mundo, e levamos essa responsabilidade a sério. Temos princípios globais de direitos humanos em vigor desde 2009 e estamos comprometidos com altos padrões de responsabilidade do produto, incluindo a IA. Reconhecemos os riscos éticos associados ao desenvolvimento da tecnologia de IA e aspiramos a ser um modelo, especialmente porque milhares de empresas em todos os setores estão fazendo avanços em IA usando sistemas aprimorados com a tecnologia Intel® AI.
Estamos comprometidos em avançar de forma responsável a tecnologia de IA durante todo o ciclo de vida do produto. Estou entusiasmado em compartilhar nossa página web responsável atualizada, apresentando o trabalho que fazemos neste espaço e destacando as ações que estamos tomando para operar de forma responsável, se proteger contra o uso indevido da IA e nos manter responsáveis por meio de processos internos de supervisão e governança.
Processo de revisão
Nosso Conselho Consultivo responsável multidisciplinar de IA realiza um rigoroso processo de revisão durante todo o ciclo de vida de um projeto de IA. O conselho analisa o desenvolvimento de produtos e projetos com nossa avaliação de impacto ético através da lente de seis áreas-chave: direitos humanos; supervisão humana; uso explicavel da IA; segurança, segurança e confiabilidade; privacidade pessoal; e equidade e inclusão. O objetivo é avaliar potenciais riscos éticos dentro de projetos de IA e mitigar esses riscos o mais cedo possível. Os membros do Conselho também fornecem treinamento, feedback e suporte às equipes de desenvolvimento para garantir consistência e conformidade em toda a Intel.
Diversidade e Inclusão
O viés nos algoritmos de IA não pode ser abordado apenas com ferramentas e processos. A tecnologia de IA deve ser moldada por pessoas com diversas origens, vozes e experiências. A Intel se esforça para garantir que os profissionais de IA e suas respectivas tecnologias sejam equitativos e inclusivos. Diversas equipes podem oferecer perspectivas e levantar preocupações que podem ser perdidas por equipes mais homogêneas. Contamos extensivamente com pesquisas em ciências sociais para entender situações em que o viés provavelmente ocorrerá em conjuntos de dados, formulação de problemas ou modelagem, bem como situações em que riscos não previstos podem levar a danos na integração do mundo real.
Também reconhecemos a necessidade de incluir a ética como parte central de qualquer programa de educação em IA. Nossos programas de prontidão digital, como nosso Programa de IA para futuro força de trabalho, engajam os alunos nos princípios da ética da IA e os ajudam a entender como criar soluções responsáveis de IA. Também trabalhamos ativamente com faculdades comunitárias, que atraem estudantes com uma rica variedade de experiências e conhecimentos. E buscamos continuamente novas maneiras de nos envolvermos com pessoas de todas as esferas da vida que são afetadas por novas tecnologias, como a IA.
Privacidade e segurança
Proteger a IA e manter a integridade, privacidade e precisão dos dados está no centro dos esforços de pesquisa e desenvolvimento de segurança da Intel. Na Intel, abordamos essas questões de forma holística e desenvolvemos inovações em hardware e software para permitir que o ecossistema construa IA confiável. Por exemplo, nossa pesquisa no instituto private ai visa informar as pessoas sobre maneiras de proteger melhor suas informações privadas. Nossos esforços federados de aprendizagem e openFL se concentram em como fazer IA útil a partir de dados confidenciais. Nosso projeto DARPA GARD examina maneiras de verificar se a IA não será adulterada. Finalmente, o Project Amber fornece aos clientes e parceiros uma maneira de confiar melhor na infraestrutura do edge à cloud.
Recentemente, também vimos muitas preocupações éticas levantadas em torno de deepfakes. Temos explorado como incorporar tecnologia e ferramentas de detecção de deepfake para determinar as fontes originais de informação em produtos Intel e como os clientes podem integrar essas tecnologias em suas plataformas. Duas áreas iniciais de pesquisa incluem detecção de deepfake, ou a produção ou modificação de mídia falsa usando aprendizado de máquina e IA, e tecnologia de autenticação de mídia para confirmar a validade do conteúdo.
Colaboração
Os desenvolvimentos neste campo em rápida evolução afetam nosso ecossistema de parceiros, a indústria como um todo e o mundo. É por isso que continuamos investindo em pesquisa crítica e trabalhando com parceiros acadêmicos em áreas como privacidade, segurança, colaboração humano/IA e sustentabilidade. Acreditamos que desbloquear o potencial na colaboração humano-IA pode levar a um futuro emocionante para a IA. Estamos desenvolvendo as capacidades necessárias para que isso aconteça e aplicando-os internamente em nossos processos de design e fabricação. Nos esforçamos para sermos transparentes sobre nossa posição e práticas para que possamos enfrentar desafios compartilhados e melhorar nossos produtos e a indústria em geral. Nós nos envolvemos ativamente em fóruns como a Mesa Redonda sobre Direitos Humanos & IA, Iniciativa Global de Negócios em Direitos Humanos, Parceria em IA e o Compromisso de Construir AI De Gênero Justo para aprender com nossos pares e estabelecer parâmetros éticos, morais e de privacidade para que possamos construir um negócio próspero de IA.
Vislumbrando o futuro
A IA percorreu um longo caminho, mas ainda há muito mais a ser descoberto. Estamos continuamente encontrando maneiras de usar essa tecnologia para promover mudanças positivas e mitigar melhor os riscos. Na Intel, estamos comprometidos em aprofundar nosso conhecimento usando uma abordagem multidisciplinar e focando na ampliação da potencialização humana com IA através da colaboração humano-IA.
Estou ansioso para ver como nós, como empresa e a indústria em geral, podemos continuar trabalhando juntos para liberar o poder positivo da IA.
Lama Nachman é bolsista da Intel e diretor do Laboratório de Pesquisa de Sistemas Inteligentes da Intel Labs.