top of page

Cientistas assinam acordo para prevenir armas biológicas alimentadas com IA

Pacto foi assinado após CEO da Anthropic ter afirmado ao Congresso que a IA poderá ajudar pessoas a criarem ataques biológicos em larga escala


Mais de 90 biólogos e cientistas especializados em tecnologias de inteligência artificial (IA) usadas no desenvolvimento de novas proteínas, ou seja, mecanismos microscópicos que impulsionam criações na biologia, assinaram um acordo para garantir que pesquisas auxiliadas por IA avancem sem expor o mundo a danos graves.


Conforme publicação do jornal “New York Times”, no último ano, Dario Amodei, executivo-chefe da Anthropic, uma das principais startups de IA no mundo, disse que a nova tecnologia IA poderia, em breve, ajudar pessoas não qualificadas, mas más, a criarem ataques biológicos em larga escala, incluindo a liberação de vírus ou substâncias tóxicas que causam doenças e mortes generalizadas.

“Como cientistas envolvidos nesse trabalho, acreditamos que os benefícios das atuais tecnologias de IA para o design de proteínas superam em muito o potencial de danos e gostaríamos de garantir que nossa pesquisa continue sendo benéfica para todos no fundo”, diz trecho do documento.

Vale dizer que o manifesto não busca suprimir o desenvolvimento ou a distribuição de tecnologias de IA. Os biólogos buscam regulamentar o uso dos equipamentos necessários para a fabricação de novos materiais genéticos.


O acordo contra os males da inteligência artificial (IA)

O acordo é um dos esforços para pesar os riscos da IA em relação aos seus benefícios.

Alguns especialistas, inclusive, alertam sobre o risco de a tecnologia espalhar desinformação, substituir empregos e causar a destruição da humanidade.

Por isso, laboratórios acadêmicos, órgãos reguladores e os legisladores estão lutando para entender a dinâmica e encontrar a maneira correta para lidar com a situação.

Ainda conforme o veículo, mesmo afirmando que a a IA poderá ajudar malfeitores, Amodei reconhece que isso não seria possível hoje.


Recentemente, a Anthropic conduziu um estudo e apontou que, caso alguém estivesse tentando adquirir ou projetar armas biológicas, as LLMs (Grande Modelo de Linguagem, em tradução), eram pouco mais úteis do que um mecanismo de busca comum na internet.

No entanto, o receio é de que, à medida que as empresas melhores as LLMs e os combinem com outras tecnologias, pode haver ameaça. O executivo disse ao Congresso que restavam entre dois e três anos para isso acontecer.


O estudo da OpenAI

De acordo com a publicação, uma pesquisa da OpenAI, do ChatGPT, também mostrou que as LLMs não eram tão mais perigosas quanto os motores de busca.

Aleksander Madry, professor de ciência da computação no Instituto de Tecnologia de Massachusetts e o chefe de preparação da OpenAI, disse esperar que os pesquisadores continuem a melhorar os sistemas, mas que ainda não havia notado evidências sobre a criação de novas armas biológicas.

Atualmente, as LLMs são criadas pela análise de enormes quantidades de texto digital obtidos via internet, significando que elas liberam ou recombinam o que existe online, incluindo informações sobre ataques biológicos.


Mas, diante do esforço de acelerar o desenvolvimento de novos medicamentos, vacinas e outros materiais biológicos úteis, os investigadores estão começando a construir sistemas de IA semelhantes que podem gerar designs de novas proteínas.

Biólogos afirmam que tal tecnologia pode ajudar a conceber armas biológicas, porém, reforçam que a construção efetiva precisaria de laboratórios multimilionários, incluindo equipamento de produção de DNA.


“Existem alguns riscos que não exigem milhões de dólares em infraestrutura, mas esses riscos já existem há algum tempo e não estão relacionados à IA”, disse Andrew White, cofundador da organização sem fins lucrativos Future House e um dos biólogos. que assinou o acordo.

Os biólogos apelaram ao desenvolvimento de medidas de segurança que impediram equipamentos de produção de DNA fossem usados com materiais nocivos, apesar de que não está claro como tais medidas funcionariam.


Além disso, também pediram revisões de segurança de novos modelos de sistemas de IA antes de lançá-los.

“Essas tecnologias não deveriam ser mantidas apenas por um pequeno número de pessoas ou organizações”, disse Rama Ranganathan, professor de bioquímica e biologia molecular na Universidade de Chicago, que também assinou o acordo.

“A comunidade de cientistas deve ser capaz de explorá-los livremente e contribuir para eles”, acrescentou.


Link de referência da matéria: https://www.cnnbrasil.com.br

2 visualizações0 comentário

Comments


bottom of page