Publicidade

Chefes de Big Tech instruídos a proteger o público dos riscos da IA

Chefes de Big Tech instruídos a proteger o público dos riscos da IA

Publicidade

Os chefes de tecnologia foram convocados à Casa Branca na quinta-feira e informados de que devem proteger o público dos perigos da Inteligência Artificial (IA).

Sundar Pichai, do Google, Satya Nadella, da Microsoft, e Sam Altmann, da OpenAI, foram informados de que tinham o dever “moral” de proteger a sociedade.

A Casa Branca deixou claro que pode regulamentar ainda mais o setor.

Produtos de IA lançados recentemente, como ChatGPT e Bard, capturaram a imaginação do público.

Eles oferecem aos usuários comuns a chance de interagir com o que é conhecido como “IA generativa”, que pode resumir informações de várias fontes em segundos, depurar código de computador, escrever apresentações e até poesia, que soam plausivelmente como se fossem humanos. gerado.

Seu lançamento provocou um debate renovado sobre o papel da IA ​​na sociedade, oferecendo uma ilustração tangível dos riscos e recompensas potenciais da nova tecnologia.

Executivos de tecnologia reunidos na Casa Branca na quinta-feira foram informados de que cabia às empresas “garantir a segurança de seus produtos” e foram avisados ​​de que o governo estava aberto a novos regulamentos e legislações para cobrir a inteligência artificial.

Sam Altman, executivo-chefe da OpenAi, a empresa por trás do ChatGPT, disse a repórteres que, em termos de regulamentação, os executivos estavam “surpreendentemente na mesma página sobre o que precisa acontecer”.

A vice-presidente dos EUA, Kamala Harris, disse em um comunicado após a reunião que a nova tecnologia pode representar um risco à segurança, privacidade e direitos civis, embora também tenha o potencial de melhorar vidas.

O setor privado tem “uma responsabilidade ética, moral e legal de garantir a segurança de seus produtos”, disse ela.

A Casa Branca anunciou um investimento de US$ 140 milhões (£ 111 milhões) da National Science Foundation para lançar sete novos institutos de pesquisa em IA.

Os apelos para que o aumento dramático da IA ​​emergente seja mais bem regulamentado têm surgido rapidamente, tanto de políticos quanto de líderes tecnológicos.

No início desta semana, o “padrinho” da IA, Geoffrey Hinton, largou o emprego no Google – dizendo que agora se arrependia de seu trabalho.

Ele disse à BBC que alguns dos perigos dos chatbots de IA eram “bastante assustadores”.

Em março , uma carta assinada por Elon Musk e o fundador da Apple, Steve Wozniak, pedia uma pausa no lançamento da tecnologia.

E na quarta-feira, a chefe da Federal Trade Commission (FTC), Lina Khan, expôs suas opiniões sobre como e por que a IA precisava ser regulamentada.

Existem preocupações de que a IA possa substituir rapidamente os empregos das pessoas, bem como preocupações de que chatbots como ChatGPT e Bard possam ser imprecisos e levar à disseminação de informações incorretas.

Também há preocupações de que a IA generativa possa desrespeitar a lei de direitos autorais. A IA de clonagem de voz pode exacerbar a fraude. Vídeos gerados por IA podem espalhar notícias falsas.

No entanto, defensores como Bill Gates reagiram aos pedidos de uma “pausa” da IA, dizendo que tal movimento não “resolveria os desafios” à frente.

Gates argumenta que seria melhor focar na melhor forma de usar os desenvolvimentos em IA.

E outros acreditam que existe o perigo de regulamentação excessiva – o que daria uma vantagem estratégica às empresas de tecnologia na China.

Fonte: BBC

CATEGORIAS