Uso irresponsável de tecnologia

LLM – Large Language Model ou Modelos de linguagem de grande escala – é o termo técnico para tecnologias como o Deep Seek.

Há uma ideia muito errada de que os LLM seriam juízes confiáveis e imparciais. Tem relato na rede social Lemmy de um infeliz cuja namorada vive jogando as brigas no casal no ChatGPT para dizer que o cara estava errado mesmo, o ChatGPT confirmou que o cara foi injusto.

Na minha área (TI), antigamente era bem mais comum as pessoas lerem manuais info, man pages, e livros sobre algoritmos, matemática, engenharia de software. Aí quando se popularizaram sítios como Stack Overflow, muitos desenvolvedores passaram a copiar trechos prontos desses sítios e jogando na base de código sem entender plenamente o que aquilo faz. Hoje piorou – o povo chupa de LLM códigos grandes sem entender nada de como funciona. Menos conhecimento ainda do código que a pessoa terceirizou, e maior chance de erros (LLM usando fontes de baixa qualidade) e alucinações (LLM inventado coisas fantasiosas).

Eu aqui uso muito sítios como Stack Overflow e Super User, mas não tenho medo de ler man pages, manuais info, outras documentações de referência e tutoriais. E quando uso sítios como Super User, tento conferir e entender o que aquilo faz. LLM uso muito raramente. E nunca usei LLM da Big Tech estadunidense. Quando uso LLM é Deep Seek. Inclusive vou instalar o Deep Seek na minha máquina, para ter privacidade.

Outra coisa: a sociedade já tinha um problema de “explosão de complexidade”. As tecnologias estão ficando complexas demais para serem entendidas. Agora com LLM esse problema deve piorar tremendamente. O LLM em muito pouco tempo cospe calhamaços de código que o “programador” (na verdade o usuário de LLM) não entende como funciona. É preocupante o efeito futuro disso.

A Internet das Coisas (outra moda preocupante) já era cheia de brechas de segurança, pois os fabricantes colocam muitos produtos “inteligentes” no mercado e não dão suporte de segurança. Por exemplo, os criminosos que invadem computadores para fazer botnet muitas vezes preferem invadir câmeras de segurança online, pois são menos seguras que laptops e espertofones.

Agora combina as duas coisas! O mundo inteiro entupido de dispositivos online, cheios de sensores (câmeras, microfones etc.) e atuadores (servomotores, auto falantes etc.), com código porcamente cuspido por LLM que ninguém entende, sem suporte do fabricante, e sem especificação nem código fonte para a comunidade software livre ajudar. Receita de desastre.