Na última terça-feira, o popular chatbot da OpenAI, ChatGPT, sofreu uma interrupção significativa que deixou milhões de usuários sem acesso ao serviço. A interrupção começou no início do dia e persistiu mesmo após uma tentativa inicial de restauração ao meio-dia. Tanto os usuários que acessavam o ChatGPT por navegadores web quanto pelo aplicativo móvel foram afetados. Na manhã de quarta-feira, a OpenAI anunciou que o ChatGPT estava operando normalmente novamente e aconselhou os usuários a realizar uma atualização completa em seus navegadores caso ainda recebessem notificações de capacidade excedida.
Falta de Transparência e Questões de Segurança na IA
O que torna essa interrupção particularmente intrigante é que ela ocorreu no mesmo período em que ex-funcionários da OpenAI publicaram uma carta aberta alertando sobre os comportamentos “imprudentes” das empresas de IA. Segundo esses denunciantes, as empresas estão priorizando lucros e a corrida pela dominação na área da inteligência artificial, sem considerar devidamente as possíveis consequências imprevistas dessa tecnologia.
“Somos funcionários atuais e antigos de empresas de IA de ponta e acreditamos no potencial da tecnologia de IA para trazer benefícios inéditos à humanidade,” escreveram os ex-funcionários. “Também entendemos os sérios riscos que essas tecnologias representam,” destacando questões que vão desde o aprofundamento das desigualdades existentes, manipulação e desinformação, até a perda de controle sobre sistemas autônomos de IA, potencialmente resultando na extinção humana.
Incentivos Financeiros e Falta de Governança
Os ex-funcionários criticaram a falta de transparência das empresas de IA sobre as habilidades e limitações dos sistemas que estão desenvolvendo. Eles afirmam que as empresas têm “fortes incentivos financeiros para evitar uma supervisão eficaz” e que “as estruturas de governança corporativa sob medida não são suficientes para mudar isso.”
Além disso, esses ex-funcionários ressaltaram que a falta de obrigações rigorosas para compartilhar informações com os governos aumenta o potencial de uso indevido das tecnologias ou de consequências não intencionais. Eles também apontaram que as proteções tradicionais para denunciantes são insuficientes, pois se concentram em atividades ilegais, enquanto muitos dos riscos associados à IA ainda não são regulamentados.
Respostas da OpenAI
Em resposta às crescentes preocupações sobre a segurança e a transparência, a OpenAI anunciou em maio a formação de um Comitê de Segurança e Proteção. Este comitê é liderado por Bret Taylor, junto com Adam D’Angelo, Nicole Seligman e o CEO Sam Altman. “Este comitê será responsável por fazer recomendações ao Conselho sobre decisões críticas de segurança e proteção para os projetos e operações da OpenAI,” afirmou um comunicado da empresa. A OpenAI está atualmente desenvolvendo e treinando seu próximo modelo de fronteira, que acredita oferecer “o próximo nível de capacidades no nosso caminho para a AGI” (Inteligência Artificial Geral).
“Estamos orgulhosos de construir e lançar modelos que são líderes na indústria tanto em capacidades quanto em segurança, e acolhemos um debate robusto neste momento importante,” disse a empresa.
Reflexão Final
A interrupção significativa do ChatGPT levanta questões cruciais sobre a segurança e a responsabilidade na corrida pela dominação da inteligência artificial. Enquanto a OpenAI trabalha para restaurar a confiança dos usuários e abordar as preocupações de segurança, é essencial manter um diálogo aberto e transparente sobre os riscos e as oportunidades apresentadas por essas tecnologias emergentes.
Para mais informações sobre a interrupção e as questões levantadas pelos ex-funcionários, consulte a The Debrief.