A Intel participa do grupo de trabalho de segurança de IA da MLCommons

A Intel se junta ao grupo de principais especialistas do setor de IA e acadêmicos para estabelecer parâmetros de referência de segurança de IA padrão que orientarão o desenvolvimento responsável de IA.

Notícias

  • 26 de outubro de 2023

  • Entre em contato com o PR da Intel

  • Siga a redação da Intel nas redes sociais:

    Logotipo do Twitter
    Ícone do YouTube

author-image

Por

O que há de novo: Hoje, a Intel anunciou que está se juntando ao novo grupo de trabalho MLCommons AI Safety (AIS) juntamente com especialistas em inteligência artificial da indústria e academia. Como membro fundador, a Intel contribuirá com sua experiência e conhecimento para ajudar a criar uma plataforma flexível para parâmetros de comparação que medem a segurança e os fatores de risco das ferramentas e modelos de IA. À medida que o teste amadurece, os parâmetros de referência de segurança de IA padrão desenvolvidos pelo grupo de trabalho se tornarão um elemento vital da abordagem de nossa sociedade para a implantação e a segurança da IA.

"A Intel está comprometida em promover a IA de forma responsável e torná-la acessível a todos. Abordamos as preocupações de segurança de forma holística e desenvolvemos inovações em hardware e software para permitir que o ecossistema crie IA confiável. Devido à onipresença e à disseminação de grandes modelos de linguagem, é crucial trabalhar em todo o ecossistema para abordar as preocupações de segurança no desenvolvimento e na implantação da IA. Para isso, ficamos satisfeitos em juntar-nos ao setor para definir os novos processos, métodos e parâmetros de referência para melhorar a IA em qualquer lugar".

– Deepak Patil, Vice-Presidente Corporativo e Gerente Geral da Intel para Soluções de IA para data center

Por que isso importa: O treinamento e a implantação responsáveis de grandes modelos de linguagem (LLMs) e ferramentas são de extrema importância para ajudar a mitigar os riscos sociais impostos por essas poderosas tecnologias. A Intel há muito reconhece a importância das implicações éticas e de direitos humanos associadas ao desenvolvimento de tecnologia, especialmente a IA.

Esse grupo de trabalho fornecerá um sistema de classificação de segurança para avaliar o risco apresentado a partir de tecnologias de IA novas e em rápida evolução. A participação da Intel no grupo de trabalho do AIS é o mais recente compromisso nos esforços da empresa para promover de forma responsável as tecnologias de IA.

Sobre o grupo de trabalho para segurança de IA: O grupo de trabalho para segurança de IA é organizado pela MLCommons com a participação de um grupo multidisciplinar de especialistas em IA. O grupo desenvolverá uma plataforma e um conjunto de testes de colaboradores para oferecer suporte a parâmetros de referência de segurança de IA para diversos casos de uso.

Sobre a participação da Intel: A Intel planeja compartilhar descobertas e melhores práticas e processos de segurança de IA para desenvolvimento responsável, como agrupamento vermelho e testes de segurança. A lista completa dos membros participantes pode ser encontrada no site do MLCommons.

O que vem a seguir: O foco inicial do grupo de trabalho será desenvolver parâmetros de referência de segurança para LLMs, com base nas bases de pesquisadores do Centro de Pesquisa em Modelos fundamentais da Universidade de Stanford e de sua Avaliação Holística de Modelos de Linguagem (HELM). A Intel compartilhará seus processos de revisão rigorosas e multidisciplinares utilizados internamente para desenvolver modelos e ferramentas de IA com o grupo de trabalho AIS para ajudar a estabelecer um conjunto comum de melhores práticas e parâmetros de referência para avaliar o desenvolvimento e a implantação seguros de uma ferramenta de IA gerativa que aproveita as LLMs.

Mais contexto: o MLCommons anuncia a formação do grupo de trabalho de segurança de IA