Ciência e tecnologia

O chatbot desinfo inflamando os protestos de Los Angeles

Zoë Schiffer: Oh, uau.

Leah Feiger: Sim, exatamente. Quem já tem o ouvido de Trump. Isso ficou generalizado. E então estávamos conversando sobre as pessoas foram ao X Grok e elas disseram: “Grok, o que é isso?” E o que Grok disse a eles? Não, não. Grok disse que essas não eram imagens do protesto em Los Angeles. Eles disseram que eram do Afeganistão.

Zoë Schiffer: Oh. Grok, não.

Leah Feiger: Eles eram como, “Não há apoio credível. Isso é mal -intencionado. Foi muito ruim. Foi muito, muito ruim. E então havia outra situação em que outros dois pessoas estavam compartilhando essas fotos com ChatGPT e ChatGPT também foi como” Sim, este é o Afeganistão. Isso não é preciso, etc., etc. Não é ótimo.

Zoë Schiffer: Quero dizer, não me inicie neste momento depois que muitas dessas plataformas desmontaram sistematicamente seus programas de verificação de fatos, decidiram deixar propositadamente deixar muito mais conteúdo. E então você adiciona chatbots à mistura que, para todos os seus usos, e acho que eles podem ser realmente úteis, eles são incrivelmente confiantes. Quando o alucinam, quando estragam tudo, fazem isso de uma maneira que é muito convincente. Você não me verá aqui defendendo a pesquisa do Google. Lixo absoluto, pesadelo, mas é um pouco mais claro quando isso está se desviando, quando você está em algum blog aleatório e não crédico do que quando Grok diz com total confiança de que você está vendo uma foto do Afeganistão quando não está.

Leah Feiger: É realmente preocupante. Quero dizer, está alucinando. É totalmente alucinante, mas está com a arrogância do garoto de fraternidade mais bêbado que você já foi encurralado em uma festa em sua vida.

Zoë Schiffer: Pesadelo. Pesadelo. Sim.

Leah Feiger: Eles são como “Não, não, não. Tenho certeza. Nunca tive mais certeza da minha vida”.

Zoë Schiffer: Absolutamente. Quero dizer, tudo bem, então por que os chatbots dão a essas respostas incorretas com tanta confiança? Por que não os veremos apenas dizer: “Bem, eu não sei, então talvez você deva verificar em outros lugares. Aqui estão alguns lugares credíveis para procurar essa resposta e essa informação”.

Leah Feiger: Porque eles não fazem isso. Eles não admitem que não sabem, o que é realmente selvagem para mim. Na verdade, houve muitos estudos sobre isso e, em um estudo recente de ferramentas de pesquisa de IA no Centro de Tow Center for Digital Journalism da Columbia University, descobriu que os chatbots eram “geralmente ruins em recusar responder a perguntas que não podiam responder com precisão. Oferecendo respostas incorretas ou especulativas”. Realmente, muito, muito selvagem, especialmente quando você considera o fato de que houve tantos artigos durante a eleição sobre “Oh não, desculpe, estou chatendo e não posso pesar na política”. Você está tipo, bem, está pesando muito agora.

Zoë Schiffer: Ok, acho que devemos fazer uma pausa nessa nota muito horrível e estaremos de volta. Bem -vindo de volta a Excanny Valley. Hoje estou junto a Leah Feiger, editor sênior de política da Wired. Ok, então, além de apenas tentar verificar informações e imagens, também houve vários relatórios sobre vídeos gerados por IA. Havia uma conta do Tiktok que começou a fazer upload de vídeos de um suposto soldado da Guarda Nacional chamado Bob, que havia sido destacado para os protestos de Los Angeles, e você podia vê -lo dizendo coisas falsas e inflamatórias, como o fato de que os manifestantes estão “jogando balões cheios de petróleo” e um dos vídeos tinha perto de um milhão de pontos de vista. Então, eu não sei, parece que as pessoas precisam se tornar um pouco mais hábeis em identificar esse tipo de cenas falsas, mas é difícil em um ambiente inerentemente sem contexto, como um post em X ou um vídeo no Tiktok.

Fonte

Artigos Relacionados

Botão Voltar ao Topo