22 de Novembro, 2023

Estudo da Oxford Internet Institute adverte sobre riscos dos LLMs à ciência

image 24

Um novo artigo de pesquisadores da Oxford Internet Institute, publicado na Nature Human Behaviour, alerta que os Modelos de Linguagem de Grande Escala (LLMs) representam uma ameaça direta à ciência devido a "alucinações" (respostas não verdadeiras) e deveriam ser restritos para proteger a verdade científica. O artigo, de autoria dos Professores Brent Mittelstadt, Chris Russell e Sandra Wachter, destaca que os LLMs são projetados para produzir respostas úteis e convincentes sem garantias de precisão ou alinhamento com fatos.

Os LLMs são treinados em grandes conjuntos de dados textuais, muitas vezes retirados de fontes online, que podem conter declarações falsas, opiniões e escritas criativas, entre outros tipos de informações não factuais. O Prof. Mittelstadt explica que os usuários frequentemente antropomorfizam a tecnologia, confiando nela como uma fonte de informação semelhante aos humanos. Isso se deve, em parte, ao design dos LLMs como agentes que soam humanos, úteis, que conversam com os usuários e respondem a quase qualquer pergunta com textos bem escritos e confiantes. Resultado disso é que os usuários podem ser facilmente convencidos da precisão das respostas, mesmo quando elas não têm base em fatos ou apresentam uma versão tendenciosa ou parcial da verdade.

Para proteger a ciência e a educação da propagação de informações ruins e tendenciosas, os autores argumentam que devem ser estabelecidas expectativas claras sobre o que os LLMs podem contribuir de maneira responsável e útil. Eles sugerem que, para tarefas onde a verdade importa, os usuários devem escrever prompts de tradução que incluam informações verificadas e factuais.

Os autores reconhecem que a tecnologia sem dúvida auxiliará nos fluxos de trabalho científicos, mas enfatizam que o escrutínio de suas saídas é fundamental para proteger a ciência robusta. Eles propõem que os LLMs sejam usados como "tradutores de zero-shot", em vez de depender dos LLMs como fonte de informações relevantes, o usuário deve simplesmente fornecer ao LLM informações apropriadas e pedir que as transforme em um resultado desejado. Isso facilita a verificação de que a saída é factualmente correta e consistente com a entrada fornecida.

Com informações - University of Oxford.

Quer ficar por dentro das ultimas notícias na área?

Assine nossa newsletter semanal e acompanhe as notícias mais relevantes em segurança da informação e proteção de dados.

Posts recentes

Justiça aplica LGPD para responsabilizar empresa por inscrição em SCR sem notificação

O Tribunal de Justiça de Minas Gerais negou provimento a recursos de apelação em ação que discutia indenização por danos morais decorrente de inscrição no Sistema de Informações de Crédito (SCR) do Banco Central sem prévia comunicação. O consumidor teve seu nome inscrito pela DM Financeira no cadastro restritivo sem a devida notificação, violando dispositivos […]

Ler Mais
ANPD abre consulta pública sobre regulamentação de dados biométricos

A Autoridade Nacional de Proteção de Dados (ANPD) iniciou uma tomada de subsídios para o tratamento de dados biométricos, visando coletar contribuições da sociedade para a regulação dessa categoria de dados sensíveis. A medida surge após o procedimento de fiscalização instaurado contra a Tools for Humanity, empresa responsável pelo projeto Worldcoin que tentava coletar dados […]

Ler Mais
Microsoft corrige 67 vulnerabilidades incluindo falha zero-day no WebDAV

A Microsoft lançou correções para 67 falhas de segurança, incluindo uma vulnerabilidade zero-day no Web Distributed Authoring and Versioning (WebDAV) que está sendo explorada ativamente por criminosos cibernéticos. Das 67 vulnerabilidades corrigidas, 11 são classificadas como críticas e 56 como importantes, abrangendo 26 falhas de execução remota de código, 17 de divulgação de informações e […]

Ler Mais
Av. Senador Alberto Pasqualini, n. 180, sala 2 - Três de Maio/RS
contato@brownpipe.com.br
Comercial: (55) 999164209 - WhatsApp e Signal 

CONECTE-SE CONOSCO
Fique atualizado com as notícias mais relevantes em segurança da informação e proteção de dados. Inscreva-se na nossa newsletter semanal! 
Políticas BrownPipe *
Termos de privacidade
linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram