Como a Intel está refinando sua abordagem à IA responsável

A inteligência artificial criou uma enorme oportunidade para a inovação, e as práticas responsáveis para apoiá-la são mais importantes do que nunca.

Notícias

  • 2 de abril de 2024

  • Entre em contato com o PR da Intel

  • Siga a redação da Intel nas redes sociais:

    Logotipo do Twitter
    Ícone do YouTube

author-image

Por

Sempre admirei a capacidade da Intel de antecipar como a tecnologia futura pode desencadear uma mudança social. É por isso que, em 2017, mesmo antes da IA ser tão prevalente como é agora, lançamos nosso programa de IA (RAI) responsável . Desde então, observamos como a IA e, mais especificamente, a aprendizagem profunda fizeram progressos significativos no avanço de muitos campos, incluindo saúde, serviços financeiros e manufatura.

Também observamos como o rápido avanço de grandes modelos de linguagem (LLMs) e o maior acesso a aplicativos de IA gerativas mudaram o mundo. Hoje, ferramentas poderosas de IA são acessíveis a pessoas sem habilidades formais de IA. Isso permitiu que pessoas em todo o mundo descubram e usem recursos de IA em escala, melhorando sua maneira de trabalhar, aprender e jogar. Embora isso tenha criado uma enorme oportunidade para a inovação, também houve uma maior preocupação em torno do uso indevido, da segurança, do viés e da desinformação.

Por todas essas razões, práticas de IA responsáveis são mais importantes do que nunca.

Acreditamos que o desenvolvimento responsável deve ser a base da inovação em todo o ciclo de vida da IA para garantir que a IA seja construída, implantada e utilizada de forma segura, sustentável e ética. À medida que a IA continua a evoluir rapidamente, nossos esforços RAI também evoluem.

Governança interna e externa

Uma parte fundamental de nossa estratégia RAI é utilizar processos de revisão rigorosas e multidisciplinares em todo o ciclo de vida da IA. Internamente, os conselhos consultivos da Intel analisam várias atividades de desenvolvimento de IA através da lente de princípios de aterramento:

 

  • Respeitar os direitos humanos
  • Permitir supervisão humana
  • Ative a transparência e a explicabilidade
  • Segurança avançada, proteção e confiabilidade
  • Design para privacidade
  • Promover equidade e inclusão
  • Proteja o ambiente

 

Muita coisa mudou com a rápida expansão da IA generativa, e nós mudamos com ela. Desde o desenvolvimento de orientação permanente sobre implantações internas mais seguras de LLMs até a pesquisa e o desenvolvimento de uma taxonomia das formas específicas que a IA gerativa pode levar as pessoas a se desviarem em situações reais, estamos trabalhando duro para ficar à frente dos riscos.

Com a expansão da IA generativa também vêm crescendo as preocupações com o impacto ambiental da IA, por isso adicionamos "proteger o meio ambiente" como um novo princípio de aterramento, consistente com os compromissos de administração ambiental mais amplos da Intel. Embora não haja nada simples em abordar essa área complexa, a IA responsável nunca foi sobre simplicidade. Em 2017, nos comprometemos a abordar o preconceito, mesmo quando os métodos ainda estavam sendo desenvolvidos para enfrentá-lo.

Pesquisa e colaboração

Apesar do grande progresso que foi feito na IA responsável, ainda é um campo nascente. Devemos continuar a promover o estado da arte, especialmente dada a maior complexidade e capacidade dos modelos mais recentes. Na Intel Labs, nos concentramos em importantes áreas de pesquisa, incluindo privacidade, segurança, segurança, colaboração humana/IA, desinformação, sustentabilidade de IA, explicabilidade e transparência.

Também colaboramos com instituições acadêmicas em todo o mundo para amplificar o impacto de nosso trabalho. Recentemente estabelecemos o Centro de Excelência Intel em Sistemas Humanos-IA responsáveis (RESUMAIS, em inglês). O esforço plurianual reúne quatro instituições de pesquisa líderes: na Espanha, o Laboratório Europeu de Aprendizagem e Sistemas Inteligentes (ELLIS) Alicante; e na Alemanha, DFKI, o Centro Alemão de Pesquisa para Inteligência Artificial, o FZI Research Center for Information Technology e Leibniz Universität Hannover. O RESUMAIS tem como objetivo promover o desenvolvimento ético e centrado no usuário da IA, concentrando-se em questões como equidade, colaboração humana/IA, responsabilidade e transparência.

Também continuamos criando e participando de várias alianças em todo o ecossistema para criar soluções, padrões e parâmetros de referência para abordar as novas e complexas questões relacionadas com a RAI. Nosso envolvimento no Grupo de trabalho para segurança de IA do MLCommons® , na AI Alliance, na parceria com grupos de trabalho de IA, mesa-redonda sobre direitos humanos e IA e outras iniciativas de vários proprietários de participação têm sido fundamentais para levar este trabalho adiante – não apenas como empresa, mas como setor.

IA inclusiva/trazendo AI Everywhere

A Intel acredita que trazer "IA para todos os lugares" de forma responsável é fundamental para o avanço coletivo dos negócios e da sociedade. Essa crença é o alicerce da programação de capacitação digital da Intel, trabalhando para fornecer acesso às habilidades de IA a todos, independentemente da localização, etnia, gênero ou histórico.

Tivemos orgulho de expandir nossos programas de IA para jovens e forças de trabalho para incluir o currículo em torno da ética aplicada e da sustentabilidade ambiental. Além disso, no terceiro festival anual de impacto global de IA da Intel, os projetos dos vencedores passaram por uma auditoria ética inspirada no processo multidisciplinar da Intel. A plataforma do festival também contou com uma aula sobre a qual mais de 4.500 alunos ganharam certificações em habilidades de IA responsáveis. E, pela primeira vez, foram concedidos prêmios às equipes do projeto que ofereceram soluções de acessibilidade inovadoras utilizando IA.

Vislumbrando o futuro

Estamos expandindo nossos esforços para compreender e mitigar os riscos únicos criados pela expansão maciça da IA generativa e desenvolver abordagens inovadoras para abordar a segurança, a segurança, a transparência e a confiança. Também estamos trabalhando com nossa organização de responsabilidade da cadeia de fornecimento para acelerar o progresso que trata dos direitos humanos dos trabalhadores do enriquecimento global de dados de IA (por exemplo, pessoas que utilizam conjuntos de dados de IA por meio de rotulagem, limpeza, anotação ou validação). Abordar essa questão crítica exigirá esforços em todo o setor, e estamos aproveitando nossas duas décadas de experiência no enfrentamento de questões como o fornecimento responsável e o trabalho forçado para ajudar a levar o ecossistema global adiante.

Em uma IA responsável, estamos comprometidos em aprender sobre novas abordagens, colaborar com parceiros do setor e continuar nosso trabalho. Somente então podemos realmente liberar o potencial e os benefícios da IA.

Lama Nachman é membro da Intel e diretora do Laboratório de Pesquisa de Sistemas Inteligentes da Intel Labs.