IA chinesa censura temas sensíveis na China e água é molhada
Notícias de que a IA da DeepSeek censura temas sensíveis na China pipocaram em portais de notícias semanas passada. Onde estava esse povo quando a IA assistente de programação da Microsoft se recusava a trabalhar se topasse com as palavras “sexo” ou “gênero”?
Às vezes a imprensa descobre (ou finge que descobre) que a água é molhada e publica coisas como esta, que estampou todos os jornais semana passada: “DeepSeek se autocensura quando perguntado sobre alguns temas políticos da China.”
Vindo de onde vem, seria notícia se uma inteligência artificial generativa chinesa não censurasse tais temas.
Não me recordo (e fiquei com preguiça de procurar) se, nos últimos dois anos e meio, alguém se deu ao trabalho de testar o Copilot da Microsoft na criação de códigos que mencionem palavras como “sexo” ou “gênero”. Até duas semanas atrás, a IA cruzava os braços (figurativamente falando) ao topar com elas, segundo esta conversa no GitHub, um serviço da Microsoft.
E, veja: longe de mim defender a China, o PCCh ou quem quer que seja. É que, embora às vezes se tenha a impressão de que não, todo mundo tem teto de vidro.
Aliás, dado que o novo governo estadunidense tem como principal política pública destruir dados e documentos de gente que eles odeiam, quanto tempo até as big techs de lá, todas em lua de mel com Trump, dizerem “amém” e fazerem o mesmo?
Via Baldur Bjarnason (em inglês).