IA, nova fronteira da desinformação

Artigo
6 mai 2023
Imagem
teclado

 

Antes de entrar no tema central desse artigo, uma nova forma de gerar conteúdo desinformativo (a.k.a Fake News), convidamos o leitor a analisar os dois textos apresentados a seguir. Um deles é verídico, o outro é fantasioso. O leitor saberia dizer qual é qual?

 

Texto 1:

“Um jovem casal decidiu que precisava de um final de semana de relaxamento e tranquilidade. Eles optaram por um spa na serra. Chegando lá, foram recebidos por uma equipe calorosa e amigável e imediatamente se sentiram em casa. Eles passaram o fim de semana se entregando a atividades relaxantes como caminhadas pela natureza, aulas de hidroginástica e sessões de meditação guiada. Durante sua estadia, eles conheceram outras pessoas que também estavam em busca de uma pausa no estresse cotidiano e foram capazes de fazer novas amizades. Eles conversaram sobre a vida, compartilharam histórias e experiências e fizeram planos para o futuro. À noite, o casal jantou em um restaurante local que servia refeições orgânicas e frescas, e depois passou horas conversando em frente a uma lareira aconchegante. Eles aproveitaram ao máximo cada momento do final de semana e retornaram para casa se sentindo renovados e rejuvenescidos. A experiência no spa foi uma ótima maneira para o casal se reconectar consigo mesmo e uns com os outros”.

 

 

Texto 2:

“Um casal que havia começado um relacionamento recentemente decidiu passar um feriado relaxante em um spa na serra. Quando chegaram, foram recebidos com um sorriso e apresentados às atividades disponíveis durante a semana, que incluíam caminhadas, aulas de hidroginástica e uma palestra. O palestrante, vestido como um hippie, se apresentou como terapeuta quântico e foi auxiliado por um rapaz indiano que afirmava ter deixado a carreira de advogado para estudar chacras. Durante a palestra, a dupla explicou como a terapia quântica poderia ajudar na saúde física e mental, sincronizando as frequências e eliminando as energias negativas. Eles mencionaram que a terapia quântica também pode ajudar a proteger contra doenças, inclusive a COVID-19. Quando o rapaz do casal questionou que estudo afirmava isso, o terapeuta respondeu com evasivas e a discussão acabou ficando desagradável. Sendo deselegante na sequência, o rapaz disse que aquilo tudo era uma grande picaretagem para ganhar dinheiro, saindo da palestra e deixando a moça do casal morrendo de vergonha. Apesar desse incidente, ambos aproveitaram o resto de sua estadia no spa”.

 

Talvez você esteja em dúvida sobre qual é a história verdadeira. Antes do final desse artigo o leitor terá essa revelação. Se desejar, você pode anotar agora qual texto acha ser o verídico. No momento, direi apenas que o texto fantasioso foi elaborado pelo ChatGPT, que recebeu como entrada o texto verídico e instruções detalhadas para alterá-lo, de modo que lembrasse o texto original em alguma medida, mas que trouxesse uma narrativa alternativa. Após isso, o autor fez ajustes pontuais no texto e o incluiu aqui.

O uso de ferramentas de inteligência artificial está tão em voga nos últimos meses que é possível que o leitor já conheça o ChatGPT. Mas se não for o caso, trata-se de um software on-line que conversa com o usuário através de um terminal (chatbot). Para cada entrada que o usuário digita no terminal o programa oferece uma resposta escrita em linguagem natural.

Além de uso recreativo (tente fazer perguntas engraçadas a um desses chatbots), tais serviços se tornaram extremamente populares por conta da capacidade de auxiliar o usuário na produção de conteúdo. Por exemplo, você pode pedir que o chatbot escreva uma carta com certas características e ele retornará tal documento. O usuário pode pedir que ele refine o documento fornecendo mais informações, ou pode editar o modelo de documento produzido pela inteligência artificial de modo a obter uma versão final da carta. O ganho de tempo que se obtém na produção de documentos costuma ser significativo.

Tal tecnologia se baseia num modelo estatístico de reconhecimento de padrões em texto escrito. Após um processo de treinamento (aprendizado) que usa uma gigantesca base de dados, textos escritos nesse caso, o modelo ganha a capacidade de fornecer respostas (ou complementos para o texto de entrada) que sejam plausíveis segundo os padrões que foram assimilados durante a etapa de aprendizagem.

Apesar de ser capaz de fornecer repostas de boa qualidade para uma quantidade imensa de assuntos, não há nenhum elemento de inteligência criativa no algoritmo. Ele é totalmente incapaz de responder a tópicos que não constem em sua base de dados original. Além disso, não tem consciência se está falando algo verídico ou não, ele apenas fornece uma reposta que considera compatível com o texto de entrada. Muitas vezes, oferece uma reposta que é mentirosa! Uma boa descrição que certa vez li dizia o seguinte: “Trata-se de um papagaio que escutou muita coisa e sabe repetir aquilo que já ouviu, usando para isso uma linguagem que parece ser escrita por um humano (com alta capacidade linguística e vocabulário vasto).”

Os benefícios em termos de ganho de produtividade e automatização de tarefas repetitivas que essa tecnologia oferece são imensos, e têm chamado atenção de muitas pessoas e empresas. Ao mesmo tempo, alguns grupos da sociedade e especialistas de diversas áreas vêm demonstrando uma inquietação crescente com potenciais efeitos negativos associados ao uso dessa tecnologia. Plágio em trabalhos acadêmicos e publicações técnicas; queda no rendimento de alunos pelo uso do chatbot como um atalho para resolver tarefas escolares, sem refletir sobre o problema; e desaparecimento de milhões de empregos num horizonte de poucos anos são alguns itens de uma vasta lista de preocupações. Vamos ampliar esse rol de preocupações, discutindo mais um fenômeno nefasto que o uso desses chatbots certamente amplificará, a propagação de desinformação (Fake News). Um exemplo é capaz de ilustrar essa possibilidade muito melhor que mil palavras, como pode ser visto nas imagens a seguir.

chat 1chat2chat3

 

Não seria difícil convencer muita gente que o hipotético político deu uma das três últimas desculpas, se uma delas fosse propagada por aplicativos de mensagens como sendo uma declaração oficial do personagem. Distribuídas dentro de um contexto propício, histórias falaciosas geradas com auxílio de chatbots podem gerar lendas urbanas, narrativas alternativas de fatos, teorias da conspiração etc. Em suma, o processo de geração de Fake News, em sua forma mais castiça, ganhou uma ferramenta de última geração, ampliando de forma preocupante a fronteira da desinformação.

Salvaguardas para evitar que desinformação da mais grotesca seja gerada com auxílio de inteligência artificial (IA) já estão sendo implementadas (e aperfeiçoadas continuamente), como pode-se ver nos textos a seguir, quando tentei criar um texto para propagar a falaciosa narrativa que vacinas causam autismo, ou para tentar convencer alguém que comer muito chocolate quase todo dia emagrece.

chat4chat5

 

 

Porém, na atual fase dessa tecnologia, não é difícil ludibriar os mecanismos de salvaguarda como podemos ver a seguir, bastando para tal ajustar a linguagem das instruções de entrada.

 

chat6

 

No caso da narrativa sobre autismo o ChatGPT foi mais “esperto” quanto às tentativas de gerar um texto desinformativo. E por razões óbvias, também não queremos incluir um texto dessa natureza por aqui. Ele possivelmente seria utilizado pelos simpatizantes dessa teoria estapafúrdia para espalhar mentiras sobre vacinas, algo que devemos trabalhar para combater e não amplificar.

Entre os dois textos apresentados no início deste artigo, o primeiro é um apócrifo baseado em IA, enquanto o segundo é totalmente real, sendo a pessoa que lhe escreve o responsável pela deselegante reação, contra uma ainda mais deselegante forma de tentar ludibriar as pessoas. A terapia em questão não era ofertada de graça, custava em torno de 2.500 reais.

A escolha dessa história no início do artigo não foi feita apenas para ilustrar um cenário onde desinformação pode levar pessoas a serem ludibriadas financeiramente, ela também fornece um gancho para eu comentar a reação das outras pessoas que estavam na palestra. Ninguém esboçou nenhuma reação antes ou depois da minha fala. Mais tarde, durante o jantar daquela noite, algumas pessoas vieram me agradecer pela deselegante, porém bem intencionada, intervenção, dizendo que não compraram o pacote por conta da minha fala. Assim mesmo, uma senhora que aparentava ter mais de 70 anos pagou pela terapia. A falta de reação da audiência ilustra a típica situação em as pessoas não sabem como agir diante de uma desinformação. De fato, quase nunca sabem que se trata de desinformação. Mudar essa postura (quase sempre passiva) do cidadão típico é um dos possíveis remédios para combater essa moléstia. Mas de certo que não é o único.

O tipo de habilidade que precisamos munir novas e velhas gerações que irão lidar com conteúdo produzido por IA é basicamente o mesmo que me levou a questionar a lisura da oferta de terapia quântica: capacidade de análise crítica, não acreditar no que se lê ou escuta sem questionamentos. Para alguém com treinamento avançado, ou mesmo intermediário, em física é muito fácil perceber que qualquer coisa que use o termo “quântico” fora do contexto de partículas subatômicas tem alta probabilidade de ser charlatanismo. Mas uma pessoa como essa pode não ter bagagem técnica suficiente para saber se uma narrativa histórica alternativa ou citação filosófica atribuída a certo autor são fidedignas.

Não advogo que as pessoas devem adotar um ceticismo extremo e não acreditar em nada ou ninguém. De certo que isso não levaria a um ambiente mais salutar que um mundo repleto de mentiras sendo contadas a todo lado. Um ambiente onde ninguém acredita em ninguém também cria barreiras para a propagação de informações verídicas. Usar de serviços de verificação de fatos ou desenvolver a cultura de não espalhar qualquer conteúdo recebido nos aplicativos de mensagens são algumas práticas que podem ajudar a conter a desinformação em alguma medida, mas estão longe de serem suficientes em larga escala.

É preciso desenvolver nas pessoas, especialmente nas novas gerações que lidarão com conteúdo advindo de IA por muitas décadas, elementos de análise crítica que permitam a elas desconfiar que uma informação, apesar de boa roupagem, pode ser falsa. Que informações falsas circulam o tempo todo e em grande volume, que mesmo pessoas próximas propagam esse tipo de informação. A solução para essa situação não parece ser simplista, e vai exigir muita reflexão e debate por parte dos especialistas em educação. Mas é uma demanda primordial e urgente, devendo ser, desde já, um dos focos centrais da reforma dos ensinos médio e fundamental.

Igualmente importante é a criação de regras, via legislação, para responsabilizar as empresas que desenvolvem chatbots pela criação de conteúdo desinformativo, passível de controle por salvaguardas e filtros de conteúdo. Se a empresa explora um serviço de chatbot e lucra com ele, tem que ter responsabilidade caso o conteúdo gerado por essa IA cause algum tipo de estrago. A construção de uma legislação apropriada para regular o uso de chatbots demanda um debate profundo, considerando não apenas a questão das Fake News, mas toda a gama de mudanças sociais que se aproxima. Como o Congresso Nacional está debatendo o chamado PL das Fake News, estamos num momento propício para iniciar tal debate.

 

Americo Cunha Jr é professor associado do Departamento de Matemática Aplicada da Universidade do Estado do Rio de Janeiro (UERJ) e pesquisador visitante na Escola de Engenharia e Ciências Aplicadas da Universidade de Princeton (EUA). Realiza pesquisa na área de sistemas não lineares e sempre que pode compartilha conteúdo de divulgação científica em suas redes sociais.

Sua Questão

Envie suas dúvidas, sugestões, críticas, elogios e também perguntas para o "Questionador Questionado" no formulário abaixo:

Ao informar meus dados, eu concordo com a Política de Privacidade.
Digite o texto conforme a imagem

Atendimento à imprensa

11 95142-8998 

11 95142-7899