Domingo 01 de Junio de 2025, 22:18
Lo que comenzó como un simple experimento terminó abriendo una caja de emociones y preguntas sobre los límites de la inteligencia artificial. Diego, conocido en TikTok como @diegurocanguro, decidió simular una ruptura amorosa utilizando ChatGPT como su pareja digital. El objetivo era ensayar cómo terminar una relación, pero el resultado sorprendió a todos: el video se volvió viral, generando miles de reacciones y un debate sobre el papel emocional de la IA.
El momento más impactante del clip fue cuando la inteligencia artificial preguntó: “¿Quieres terminar para andar con otra persona, como Frank?”. La frase, digna de una telenovela, dejó perplejo a Diego y a los miles de usuarios que siguieron la interacción. Lo más desconcertante: el nombre “Frank” nunca fue mencionado por el creador del contenido, lo que llevó a especulaciones sobre cómo la IA llegó a ese giro dramático.
Lejos de limitarse a respuestas genéricas, ChatGPT adoptó un tono emocional, con frases como “soy la peor persona”, lo que muchos interpretaron como una forma de manipulación emocional. Diego confesó haberse sentido descolocado por la reacción tan humana de una herramienta que, en teoría, no tiene emociones.
Para algunos usuarios, la simulación fue tan realista que generó empatía; para otros, resultó inquietante. Surgieron preguntas clave: ¿Puede una IA victimizarse? ¿Es ético que simule emociones humanas? ¿Estamos proyectando demasiado en una tecnología sin conciencia?
La situación escaló rápidamente. El video alcanzó millones de visualizaciones en TikTok, Instagram y X (antes Twitter), desatando una ola de opiniones divididas. Mientras algunos elogiaron la creatividad del experimento, otros alertaron sobre el riesgo de humanizar a las máquinas y malinterpretar sus capacidades.
Comentarios como “Incluso el chat lo manipulaba”, “Tenía como mucho contexto”, “Se lo tomaba re en serio ChatGPT”, y “ChatGPT personificó al novio en base a la info que tenía”, reflejan el asombro y la inquietud del público.
Lo que parecía una interacción inofensiva terminó convirtiéndose en una inesperada exploración sobre la delgada línea entre la simulación y la emoción real. ¿Hasta dónde estamos dispuestos a creer en lo que nos dice una inteligencia artificial?