Uso irresponsável de tecnologia
#tecnologia #tecnootimismo #LLM #IA #internetdascoisas
LLM – Large Language Model ou Modelos de linguagem de grande escala – é o termo técnico para tecnologias como o Deep Seek.
Há uma ideia muito errada de que os LLM seriam juízes confiáveis e imparciais. Tem relato na rede social Lemmy de um infeliz cuja namorada vive jogando as brigas no casal no ChatGPT para dizer que o cara estava errado mesmo, o ChatGPT confirmou que o cara foi injusto.
Na minha área (TI), antigamente era bem mais comum as pessoas lerem manuais info, man pages, e livros sobre algoritmos, matemática, engenharia de software. Aí quando se popularizaram sítios como Stack Overflow, muitos desenvolvedores passaram a copiar trechos prontos desses sítios e jogar na base de código sem entender plenamente o que aquilo faz. Hoje piorou – o povo chupa de LLM códigos grandes sem entender nada de como funciona. Menos conhecimento ainda do código que a pessoa terceirizou, e maior chance de erros (LLM usando fontes de baixa qualidade) e alucinações (LLM inventado coisas fantasiosas).
Eu aqui uso muito sítios como Stack Overflow e Super User, mas não tenho medo de ler man pages, manuais info, outras documentações de referência e tutoriais. E quando uso sítios como Super User, tento conferir e entender o que aquilo faz. LLM uso raramente. E nunca usei LLM da Big Tech estadunidense. Quando uso LLM é Deep Seek. Inclusive vou instalar o Deep Seek na minha máquina, para ter privacidade.
Outra coisa: a sociedade já tinha um problema de “explosão de complexidade”. As tecnologias estão ficando complexas demais para serem entendidas. Agora com LLM esse problema deve piorar. LLM em muito pouco tempo cospe calhamaços de código que o “programador” não entende como funciona. É preocupante o efeito futuro disso.
A Internet das Coisas (outra moda preocupante) já era cheia de brechas de segurança, pois os fabricantes colocam muitos produtos “inteligentes” no mercado e não dão suporte de segurança. Por exemplo, os criminosos que invadem computadores para fazer botnet muitas vezes preferem invadir câmeras de segurança online, pois são menos seguras que laptops e servidores.
Agora combina as duas coisas! O mundo inteiro entupido de dispositivos online, cheios de sensores (câmeras, microfones etc.) e atuadores (servomotores, auto falantes etc.), com código porcamente cuspido por LLM que ninguém entende, sem suporte do fabricante, e sem especificação nem código fonte para a comunidade software livre ajudar. Receita de desastre.