O Lero-Lero da IA

Recentemente me deparei com uma recomendação curiosa no YouTube: “AI discusses document that just says ‘Poopoo Peepee”. Em português, “IA discute documento que apenas diz ‘Poopoo Peepee'”.

O vídeo é um podcast automatizado criado pela ferramenta BookLLM da Google, que simula dois apresentadores discutindo qualquer base de documentos que você fornecer. É inegável que essa ferramenta encanta à primeira vista. A conversa flui de maneira surpreendentemente natural. Você até esquece, por alguns instantes, que está ouvindo vozes metálicas, claramente robóticas. Os apresentadores chegam em conclusões quase-humanas, puxam assuntos de forma envolvente e ainda interagem numa cadência impressionante de rádio FM de domingo à tarde.

Porém, não leva muito tempo para perceber o óbvio. As falas e conclusões “geniais” apresentadas pelos hosts virtuais são, na verdade, grandes vazios intelectuais. Um lero-lero eloquente.

Não sei se você chegou a escutar, mas esse vídeo do “Poopoo Peepee” é um bom exemplo disso. Em alguns poucos minutos de conversa, os apresentadores transformam um documento com apenas “Poopoo Peepee” em uma grande inflexão sobre arte, sobre humanidade, sobre comunicação. As conclusões parecem até geniais, se não fossem extremamente “comuns”. Sim, aquele famoso lugar-comum argumentativo que parece recheado de sabedoria e sentido, mas é uma grande retórica cenográfica. Uma casca de ovo vazia.

A razão para isso está na fórmula. O “programa” segue um roteiro, uma fórmula que guia a criação e conversação sobre qualquer tema. Se, por um lado, isso lhe confere a habilidade incomparável de criar “conteúdo” sobre qualquer coisa, também lhe confere a deficiência de ser sempre “a mesma coisa”. Sempre o mesmo samba, só muda o enredo.

O inevitável acontece: a “criação de conteúdo” vira uma linha de produção. Com uma fórmula única, você transforma um trabalho “criativo” em uma linha industrial fordista capaz de entregar qualquer tema — do mais simples ao mais complexo — em alguns minutos, ou menos. Os chatbots, LLMs ou ferramentas congêneres são, no final das contas, fábricas de Lero-Lero avançadíssimo.

Pois bem. Não estou aqui para reclamar da ferramenta. Pelo contrário, me divirto muito com ela. A questão que me preocupa, e aí sim o cerne do problema, é a progressão assustadora como a internet, e não só ela, tem sido inundada com conteúdos cada vez mais vazios e cheios desse Lero-Lero. A facilidade de criação de conteúdo automatizado, somada à lógica de engajamento veloz das redes, têm gerado uma miríade de vozes que conversam sem efetivamente dizer nada.

Bots e o “lero-lero”

Bots sempre foram um problema na internet. Desde as profundezas originárias dos fóruns na internet, do Orkut, Facebook, até os dias atuais com a criação das IAs generativas, bots sempre foram uma preocupação para os provedores de serviços online. Preocupava-se, e ainda se preocupa, que empresas ou pessoas mal intencionadas usassem bots para atacar serviços online.

Aqui vale um parênteses para os desavisados: um “bot” – abreviatura de robô – é um programa de software que executa tarefas automatizadas, repetitivas e pré-definidas. Os bots normalmente imitam ou substituem o comportamento do usuário humano. Por serem automatizados, operam muito mais rápido do que os usuários humanos. Eles realizam funções úteis, tais como serviço ao cliente ou indexação de motores de busca, mas também podem vir sob a forma de malware – usado para obter controle total sobre um computador.

Emprestei essa definição lá do Kaspersky – O que são Bots?

Mas o que os bots tem a ver com esse tal de Lero-Lero da IA? Bom, é que agora os bots não são “só” scripts automatizados. Agora, eles vêm em forma de perfis completos no LinkedIn, X (ou Twitter), Instagram… Interagem com os usuários da rede e “produzem” conteúdo como se humanos fossem. A tendência até já alcançou grandes marcas, como a Magazine Luiza, que mantém a “Lu do Magalu“.

Claro, esse tipo de coisa chega até ser divertida. Mas as repercussões não param por aí. Se antes bots eram um problema, com o surgimento das IAs a coisa degringolou de vez.

Isso porque com a popularização das ferramentas, houve uma enxurrada de perfis “robóticos” que tudo que fazem é produzir conteúdo vazio e sem sentido. Assim como o PooPoo PeePee, nada do que se produz ali é aproveitável. São textos produzidos por uma máquina, publicados por uma máquina, e que só serão lidos por outra máquina. Uma vastidão de texto e áudio que nunca chegará aos olhos e ouvidos humanos, mas irão atrapalhar o acesso direto e objetivo às informações realmente relevantes na internet.

Teoria da Internet Morta

É nesse ponto que entra a chamada “Teoria da Internet Morta”. Trata-se de uma hipótese curiosa (mas assustadoramente plausível) de que boa parte das interações e do conteúdo na internet já estaria sendo alimentada ou produzida quase que exclusivamente por bots ou qualquer outra ferramenta generativa. Tudo isso em detrimento das interações genuinamente humanas. Em outras palavras, a internet estaria se tornando um grande palco de conversas “entre máquinas”, onde seres humanos acabam relegados a meros espectadores — ou, pior, a insumos de dados para refinar cada vez mais essa produção automatizada.

Exagerada ou não, essa teoria ganha força quando nos deparamos com toneladas de textos genéricos, vídeos vazios ou discussões sem substância que inundam as redes e acabam competindo diretamente com conteúdo de qualidade. Não foram poucas as vezes em que tentei pesquisar algo aparentemente simples no Google ou no YouTube e, em vez de respostas, recebi apenas uma enxurada de sites, vídeos e posts que só fazem repetir palavras-chave, tentando “vender” alguma solução milagrosa ou simplesmente chamar atenção para fins de monetização.

O propósito? Em muitos casos, é apenas atender ao algoritmo — seja para ranquear melhor em mecanismos de busca, seja para colher cliques e gerar mais engajamento artificial. Assim, um ciclo vicioso se consolida: de um lado, algoritmos recompensam volume e atualização constante; de outro, bots alimentam esse volume com produções rasas, sem qualquer profundidade ou espírito crítico. E, na falta de filtros mais robustos, essa massa de conteúdo repetitivo e “ruidoso” se espalha sem cerimônia.

Quando usuários também entram no jogo

Com o surgimento das IAs e tecnologias de geração de conteúdo, produzir “conteúdo” nunca foi tão fácil. O problema é que nós, usuários humanos verdadeiramente interessados, também entramos no jogo, rendendo-nos à lógica virtual e tentando “preencher espaço” na internet. Criamos textos superficiais, vídeos narrados por IAs e posts genialmente óbivos. Tudo para capturar um olhar passageiro e arrancar alguns segundos da atenção.

Quando nos rendemos à lógica de produzir qualquer coisa só para marcar presença nas redes, participamos da construção de uma montanha “conteúdos” que não levam ninguém a lugar algum. Multiplicamos um tipo de ruído pavoroso, enquanto vozes reais podem acabar soterradas no meio dessa barulheira digital. O risco? Tornarmo-nos todos reféns de um ciclo onde a produção de conteúdo se transforma numa corrida desenfreada para superar o algoritmo, e o público, por sua vez, acaba inerte, rolando o feed sem encontrar nada que valha a pena.

Construção de conhecimento em meio a tanto ruído?

Talvez o ponto mais delicado, ao menos para mim, seja perceber como essa avalanche de conteúdo vazio afeta a construção de conhecimento na internet. Conteúdos autênticos estão sendo cada vez mais diluídos no lero-lero generativo das LLMs. Se, antes, bastava um pouco de critério pessoal e bom senso para identificar textos e vídeos confiáveis, hoje a escala da produção — por bots ou por pessoas replicando fórmulas rasas — está engolindo quase qualquer tentativa de buscar algo mais significativo.

O problema é tão proeminente que até mesmo a Wikipedia teve que procurar soluções. Recentemente, a Wiki criou a “WikiProject AI Cleanup”, um projeto liderado por um grupo de editores para “combater o problema crescente de conteúdo gerado por IA sem fontes e mal escrito na Wikipédia”. Na página do projeto, lemos o seguinte:

Desde 2022, modelos de linguagem em larga escala (LLMs), como o GPT, tornaram-se uma ferramenta conveniente para produção de texto em grande volume. Infelizmente, esses modelos quase sempre falham em referenciar adequadamente as fontes e frequentemente introduzem erros. Ensaios como WP:LLM recomendam fortemente ter cautela ao utilizá-los na edição de artigos. Estes são os objetivos do projeto:

    • Identificar texto escrito por IA e revisá-lo para garantir conformidade com as políticas da Wikipédia. Quaisquer afirmações sem fontes ou potencialmente imprecisas devem ser removidas.
    • Identificar imagens geradas por IA e assegurar seu uso apropriado.
    • Ajudar e monitorar editores que utilizam IA mas possivelmente não têm consciência das limitações da IA como ferramenta de redação.

O propósito deste projeto não é restringir ou proibir o uso de IA em artigos, e sim verificar se o material produzido por ela é aceitável e construtivo — e, caso contrário, corrigir ou removê-lo.” (tradução livre)

Apesar dos esforços da wiki, é estranho constatar como as próprias plataformas (Google, Facebook etc) e mecanismos de busca têm um papel relevante nessa dinâmica. Elas priorizam volume e frequência de postagens em vez de investir na qualidade ou no incentivo ao pensamento original.

Claro, avaliar o que é “relevante e original” é uma tarefa árdua, quase que o papel de um censor. Só de pensar já me causa arrepios. Mas, por outro lado, identificar textos e conteúdos gerados por LLMs não é nenhum bicho de sete cabeças.

A grande pergunta que fica é se todo esse “Lero-Lero” — gerado pela soma de bots e de pessoas dispostas a alimentar o jogo do engajamento — não acabará por engolir a própria internet. Essa é uma pergunta que eu verdadeiramente desconheço a resposta.

Receio que iremos descobrir na prática.

 

Leia também:

Vestido de noiva

Vestido de noiva

Picture of Lucas Machado

Lucas Machado

Advogado, graduado em Direito pela Universidade Cruzeiro do Sul. É membro da Comissão da Jovem Advocacia e da Advocacia Empreendedora e Inovação da OAB Jabaquara/SP e integrante como Qualify no IFL Jovem - SP. Fundador, Editor e Escritor do Blog Jus Talks, destinado ao Direito e atualidades correlatas. Jovem, dedica-se a diversas áreas de atuação, principalmente no contencioso cível, societário, consumidor e empresarial, oferecendo soluções jurídicas eficientes e alinhadas às atualidades.
O Lero Lero da IA 1.1

O Lero-Lero da IA

Textos e vídeos aparentemente profundos se espalham pela internet. Muitos deles, porém, são completamente vazios de substância. Esse fenômeno cresce com a popularização das IAs e ferramentas generativas. A criação automátizada facilita a produção em larga escala, inundando a rede com conteúdos rasos e irrelevantes. É nesse cenário que surge a chamada “Teoria da Internet Morta”. A hipótese afirma que muitas interações online já seriam mantidas apenas por algoritmos e bots. Humanos seriam, assim, reduzidos a meros espectadores. Enquanto alguns projetos tentam combater essa enxurrada de conteúdo generativo raso, cresce a pergunta sobre o futuro do conhecimento na internet. O "Lero-Lero" da IA está por toda parte. Está, inclusive, neste texto que você lê agora. Será que essas vozes artificiais irão, finalmente, sufocar o conhecimento humano?

Compartilhe

Publicações recentes

Comentários