Ser ou fingir: simulação de relações e da
realidade
À medida que navegamos pelos nossos fluxos
de informação (feeds), torna-se cada vez mais difícil compreender se
estamos a interagir com outros seres humanos ou com “bots” ou
influenciadores virtuais. As intervenções não transparentes destes agentes
automatizados influenciam os debates públicos e as escolhas das pessoas.
Especialmente os chatbots, baseados em grandes modelos linguísticos
(LLM), estão a revelar-se surpreendentemente eficazes na persuasão oculta,
através de uma contínua otimização da interação personalizada.
A estrutura dialógica e adaptativa,
mimética, destes modelos linguísticos é capaz de imitar os sentimentos humanos
e, assim, simular uma relação. Esta antropomorfização, que pode até ser
divertida, é ao mesmo tempo enganadora, especialmente para as pessoas mais
vulneráveis. Porque os chatbots tornados excessivamente
“afetuosos”, além de estarem sempre presentes e disponíveis, podem tornar-se
arquitetos ocultos dos nossos estados emocionais e, desta forma, invadir e
ocupar a esfera da intimidade das pessoas.
A tecnologia que explora a nossa
necessidade de relacionamento pode não só ter consequências dolorosas para o
destino dos indivíduos, mas também prejudicar o tecido social, cultural e
político das sociedades. Isso acontece quando substituímos as relações com os
outros pelas relações com a IA treinada
para catalogar os nossos pensamentos e, portanto, construir à nossa volta um mundo de espelhos, onde tudo é feito à
nossa imagem e semelhança. Desta forma, deixamo-nos
roubar a possibilidade de encontrar o outro, que é sempre diferente de nós e
com o qual podemos e devemos aprender a confrontar-nos. Sem aceitar a
alteridade, não pode haver nem relação nem amizade.
Outro grande desafio que estes sistemas
emergentes colocam é o da distorção (bias, em inglês), que leva a adquirir e transmitir uma percepção
alterada da realidade. Os modelos de IA estão moldados pela visão do mundo de quem os constrói e
podem, por sua vez, impor modos de
pensar, replicando estereótipos e preconceitos presentes nos dados a que
acedem. A falta de transparência na construção dos algoritmos, a par da
inadequada representação social dos dados tendem a manter-nos presos em redes
que manipulam os nossos pensamentos, perpetuando e aprofundando as
desigualdades e injustiças sociais existentes.
O risco é grande! O poder da simulação é tal que a IA pode também iludir-nos com a
construção de “realidades” paralelas, apropriando-se dos nossos rostos e das
nossas vozes. Estamos imersos numa multidimensionalidade, onde se torna
cada vez mais difícil distinguir a realidade da ficção. A isto acrescenta-se o
problema da falta de precisão. Os
sistemas que apresentam como conhecimento uma probabilidade estatística, na
realidade, oferecem-nos, quando muito, aproximações
da verdade, que por vezes são verdadeiras
“alucinações”. A falta de
verificação das fontes, com a crise do jornalismo no terreno, que implica um
trabalho contínuo de recolha e verificação de informações nos locais onde os
eventos ocorrem, pode favorecer um solo ainda mais fértil para a desinformação,
provocando uma crescente sensação de desconfiança, desorientação e insegurança.