DESPERTANEWS

MIT Lança Repositório de Riscos de IA para Guiar Regulamentação e Uso Seguro

Pesquisadores do MIT lançaram um novo recurso que pode transformar a forma como governos, empresas e indivíduos avaliam e regulam a Inteligência Artificial (IA). Trata-se de um repositório abrangente de riscos associados ao uso de sistemas de IA, desenvolvido para fornecer uma base sólida tanto para a criação de leis quanto para a implementação segura dessas tecnologias.

Por Que o Repositório de Riscos é Importante?

Ao usar IA em contextos críticos, como infraestruturas essenciais, educação ou controle de fronteiras, os riscos podem variar significativamente, desde a segurança humana até a perpetuação de discriminações. Esse novo repositório criado pelo MIT busca mapear e categorizar mais de 700 riscos, levando em consideração fatores como intencionalidade, domínio de aplicação e subdomínios específicos como desinformação e ciberataques.

A importância deste repositório se torna evidente ao considerar os desafios enfrentados por legisladores ao redor do mundo. A criação de normas, como o AI Act da União Europeia ou o SB 1047 na Califórnia, tem sido dificultada pela falta de consenso sobre quais riscos devem ser priorizados. O repositório do MIT, liderado pelo pesquisador Peter Slattery do grupo FutureTech, é uma tentativa de preencher essa lacuna e fornecer uma ferramenta extensível e de fácil acesso para qualquer pessoa envolvida com IA.

Diferenças entre Marcos de Avaliação de Riscos

Um dos achados mais notáveis da pesquisa do MIT foi a fragmentação das abordagens atuais. Slattery aponta que, em média, os marcos de avaliação de risco existentes cobrem apenas 34% dos 23 subdomínios de risco identificados pelo estudo. Além disso, quase um quarto desses marcos abrange menos de 20% dos subdomínios. Essa falta de uniformidade pode resultar em falhas graves na supervisão e desenvolvimento de IA, com consequências potencialmente desastrosas.

A equipe do MIT, em parceria com a Universidade de Queensland, o Future of Life Institute e a startup Harmony Intelligence, realizou uma extensa revisão de bancos de dados acadêmicos para construir o repositório. Entre os riscos mais frequentemente mencionados estavam os impactos sobre privacidade e segurança (70% dos marcos), enquanto apenas 44% abordavam a questão da desinformação.

Implicações para Pesquisadores e Legisladores

O repositório não é apenas um catálogo de riscos; ele é projetado para ser uma ferramenta fundamental para futuros trabalhos, seja em pesquisa ou em políticas públicas. Como destacado por Neil Thompson, líder do laboratório FutureTech do MIT, a próxima fase da pesquisa usará o repositório para avaliar como diferentes riscos estão sendo abordados na prática. Essa avaliação ajudará a identificar lacunas na resposta organizacional, permitindo uma abordagem mais equilibrada e informada para a regulamentação da IA.

Conclusão

Embora ainda seja incerto se o repositório mudará significativamente o cenário regulatório global, ele certamente fornece uma base mais sólida para que pesquisadores, legisladores e profissionais da indústria abordem a complexidade dos riscos associados à IA. No atual estágio fragmentado da regulamentação, ferramentas como essa podem ser cruciais para garantir que os avanços em IA sejam acompanhados por uma supervisão rigorosa e eficaz.

Este novo repositório do MIT promete ser um divisor de águas, oferecendo não apenas uma visão detalhada dos riscos, mas também a possibilidade de um alinhamento maior entre as várias abordagens regulatórias em todo o mundo.


Referência: Artigo original publicado no TechCrunch MIT researchers release a repository of AI risks

Compartilhar

Relacionadas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *