Funcionários atuais e ex podem responsabilizar empresas sem supervisão governamental, diz carta aberta pedindo amplos acordos de confidencialidade.
Um grupo de atuais e ex-colaboradores da OpenAI e do Google DeepMind assinaram uma declaração pública solicitando proteção contra represálias por expressarem preocupações sobre os ‘sérios riscos’ da inteligência artificial que essas e outras empresas estão desenvolvendo. Enquanto a supervisão governamental não for efetiva nessas empresas, os atuais e ex-trabalhadores serão alguns dos poucos capazes de responsabilizá-las perante o público, conforme a carta assinada por 13 pessoas ligadas às empresas, sendo sete delas destacando seus nomes.
No segundo parágrafo, é crucial reconhecer a importância da IA e de outras tecnologias emergentes na sociedade atual. A colaboração entre diferentes setores para garantir a segurança e a ética no desenvolvimento dessas tecnologias é essencial para mitigar possíveis impactos negativos. A transparência e a responsabilidade são fundamentais para garantir que a evolução da inteligência artificial e de outras tecnologias seja benéfica para a humanidade.
Inteligência Artificial em Debate: Carta Aberta Pede Amplos Acordos de Confidencialidade
No entanto, amplos acordos de confidencialidade impedem-nos de expressar as nossas preocupações, exceto às próprias empresas, que podem não estar abordando estas questões. Nas últimas semanas, a OpenAI enfrentou uma polêmica sobre sua abordagem para proteger a inteligência artificial depois de dissolver uma de suas equipes de segurança mais importantes e sofrer uma série de saídas de pessoal. Os funcionários da OpenAI também levantaram preocupações de que os empregados foram solicitados a assinar acordos de não depreciação vinculados às suas ações na empresa, potencialmente fazendo com que perdessem negócios lucrativos de ações caso se manifestassem contra a startup de IA.
Após alguma resistência, a OpenAI disse que liberaria os ex-funcionários dos acordos. Jacob Hilton, um dos ex-funcionários da OpenAI que assinou a carta na terça-feira, escreveu no X que a empresa merece crédito pela mudança de política, ‘mas os funcionários ainda podem temer outras formas de retaliação pela divulgação, como serem demitidos e processados por danos.’ Num comunicado enviado à Bloomberg, um porta-voz da OpenAI disse que a empresa está orgulhosa do seu ‘histórico de fornecimento dos sistemas de IA mais capazes e seguros e acredita na nossa abordagem científica para lidar com o risco’. O porta-voz acrescentou: ‘Concordamos que um debate rigoroso é crucial dada a importância desta tecnologia e continuaremos a colaborar com governos, sociedade civil e outras comunidades em todo o mundo’.
Um representante do Google não respondeu imediatamente a um pedido de comentário. Na carta, intitulada ‘Um direito de alertar sobre inteligência artificial avançada’, os funcionários disseram estar preocupados porque as principais empresas de IA ‘têm fortes incentivos financeiros para evitar uma supervisão eficaz’. Por outro lado, as empresas têm ‘apenas obrigações frágeis’ de partilhar os verdadeiros perigos dos seus sistemas de IA com o público, disseram. A carta argumentava que as proteções comuns aos denunciantes são insuficientes porque se concentram em atividades ilegais, ao passo que muitos dos riscos que preocupam os funcionários ainda não estão regulamentados. © 2024 Bloomberg L.P.
Fonte: @ Info Money
Comentários sobre este artigo