Frame Estoc Footage/Shutterstock |
L'antropomorfisme és la tendència a atribuir característiques humanes a entitats no humanes, com a màquines o animals. En el cas dels bots, com ChatGPT, Gemini o Copilot, este fenomen ocorre quan imiten el llenguatge humà per a comunicar-se amb nosaltres. No sols utilitzen paraules i frases comprensibles i familiars, sinó que també adopten patrons de comunicació propis de les persones. Així, aconseguixen mantindre converses contextuals i coherents i, fins i tot, poden mostrar humor i empatia.
Este disseny del llenguatge en les màquines busca que la interacció amb elles siga natural, fluida i accessible. Això facilita el seu ús en diferents aplicacions, des del servici al client fins a la educació i l'entreteniment.
Fins ara, es considerava que el llenguatge era una capacitat exclusiva de l'ésser humà. No obstant això, els avanços en la intel·ligència artificial generativa ens porten a reconsiderar esta idea.
Un dels trets més distintius del llenguatge humà és la subjectivitat, que es manifesta en l'elecció de paraules amb càrrega emocional i en l'expressió d'opinions personals. També apareix en l'avaluació d'esdeveniments i en l'ús d'elements contextuals i culturals.
L'impacte de la primera persona
Quan una màquina simula ser humana en la comunicació, sorgixen implicacions ètiques i psicològiques importants. Estes interaccions poden influir en com percebem i ens relacionem amb la tecnologia.
Un tret típic de la subjectivitat humana en el llenguatge és l'ús de pronoms personals. La primera persona (com “jo” i “nosaltres”) permet expressar pensaments i experiències pròpies. La segona persona (com “tu” i “vosaltres”) involucra a l'interlocutor, construint una relació entre els participants de la conversa. En la interacció humana, això es diu intersubjectivitat.
Considerem un exemple.
Usuari: “Com prioritzar quins articles conservar, donar o tirar durant el procés d'organització?”
Bot: “Excel·lent pregunta! Organitzar les teues pertinences pot ser aclaparador, però amb una estratègia clara, pots prendre decisions més fàcils. #Ací et presente algunes idees per a prioritzar què conservar, donar o tirar”.
El bot usa la primera persona de manera implícita. Encara que el “jo” no apareix, l'emissor adopta una posició d'assessor o guia. Per exemple, en la frase “#Ací et presente algunes idees,” el verb “presente” està en primera persona.
Això suggerix que el bot assumix el rol de qui brinda ajuda. Així, l'usuari percep un tracte personal, encara que el “jo” no s'empre de manera explícita. A més, l'ús de “presente” reforça la imatge de l'emissor com algú que oferix una cosa valuosa.
Ús de la segona persona
El “tu” (i formes com “et” i “les teues”) s'usa per a dirigir-se directament a l'usuari. Això es veu en diverses parts del text, com en les frases: “Organitzar els teus pertinences pot ser aclaparador” i “amb una estratègia clara, pots prendre decisions més fàcils”.
En parlar-li de manera personal, el bot busca que el lector se senta part activa del consell. Este tipus de llenguatge és comú en textos que busquen involucrar directament a l'altre.
Altres elements en la interacció, com “Excel·lent pregunta!”, no sols avaluen positivament la consulta de l'usuari, sinó que també incentiven la seua participació. De la mateixa manera, expressions com “pot ser aclaparador” suggerixen una experiència compartida, creant una il·lusió d'empatia en reconéixer les possibles emocions de l'usuari.
Efectes de l'empatia artificial
L'ús de la primera persona per part del bot simula consciència i busca crear una il·lusió d'empatia. En adoptar una posició d'ajudant i usar la segona persona, involucra a l'usuari i reforça la percepció de proximitat. Esta combinació genera una conversa que se sent més humana i pràctica, adequada per a l'assessorament, encara que l'empatia provinga d'un algorisme, no d'una comprensió real.
Acostumar-nos a interactuar amb entitats no conscients que simulen identitat i personalitat pot tindre efectes a llarg termini. Estes interaccions poden influir en aspectes de la nostra vida personal, social i cultural.
A mesura que estes tecnologies milloren, distingir entre una conversa amb una persona i una amb una intel·ligència artificial podria tornar-se difícil.
Este desdibuixament dels límits entre l'humà i l'artificial afecta com entenem l'autenticitat, l'empatia i la presència conscient en la comunicació. Fins i tot podríem arribar a tractar a les intel·ligències artificials com si foren éssers conscients, generant confusió sobre les seues capacitats reals.
Incòmodes parlant amb humans
Les interaccions amb màquines també poden modificar les nostres expectatives sobre les relacions humanes. En habituar-nos a interaccions ràpides, perfectes i sense conflicte, podríem sentir-nos més frustrats en les nostres relacions amb persones.
Les relacions humanes estan marcades per emocions, malentesos i complexitat. Això, a llarg termini, podria disminuir la nostra paciència i capacitat per a manejar els conflictes i acceptar les imperfeccions naturals en les interaccions interpersonals.
A més, l'exposició prolongada a entitats que simulen humanitat planteja dilemes ètics i filosòfics. En atribuir-los qualitats humanes, com la capacitat de sentir o tindre intencions, podríem començar a qüestionar el valor de la vida conscient enfront d'una simulació perfecta. Això podria obrir debats sobre els drets dels robots i el valor de la consciència humana.
Interactuar amb entitats no conscients que imiten la identitat humana pot alterar la nostra percepció de la comunicació, les relacions i la identitat. Encara que estes tecnologies oferixen avantatges en termes d'eficiència, és fonamental ser conscients dels seus límits i dels possibles impactes en la forma en què ens relacionem, tant amb les màquines com entre nosaltres.
Cristian Augusto Gonzalez Arias, Investigador, Universidade de Santiago de Compostel·la
Este article va ser publicat originalment en The Conversation.
* ho pots llegir perquè som Creative Commons
Cap comentari :