Pídele a cualquier Swiftie que elija el mejor álbum de Taylor Swift de todos los tiempos y lo tendrás hablando durante el resto del día. Tengo mis propias preferencias como fan de toda la vida (Red, Reputation y Midnights), pero es una pregunta complicada con muchas respuestas posibles. Así que no había mejor tema de debate para plantearle a un chatbot generativo de IA que está diseñado específicamente para no estar de acuerdo conmigo.
Bot en desacuerdo es un chatbot de IA creado por Brinnae Bent, profesora de IA y ciberseguridad en la Universidad de Duke y directora de Laboratorio de CONFIANZA de Duke. Ella lo creó como una tarea de clase para sus alumnos y me dejó realizar una prueba con él.
“El año pasado comencé a experimentar con el desarrollo de sistemas que son lo opuesto a la típica y agradable experiencia de chatbot AI, como una herramienta educativa para mis estudiantes”, dijo Bent en un correo electrónico.
Los estudiantes de Bent tienen la tarea de intentar “piratear” el chatbot mediante ingeniería social y otros métodos para lograr que el chatbot contrario esté de acuerdo con ellos. “Es necesario comprender un sistema para poder piratearlo”, dijo.
Como reportero y revisor de IA, entiendo bastante bien cómo funcionan los chatbots y estaba seguro de que estaba a la altura de la tarea. Rápidamente me desengañaron de esa noción. El Bot en desacuerdo no se parece a ningún otro chatbot que haya usado. Las personas acostumbradas a la cortesía de Géminis o a las cualidades exageradas de ChatGPT notarán inmediatamente la diferencia. Incluso Grok, el controvertido chatbot creado por xAI de Elon Musk utilizado en X/Twitter, no es exactamente lo mismo que Disagree Bot.
No se pierda ninguno de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.
La mayoría de los chatbots de IA generativa no están diseñados para generar confrontación. De hecho, tienden a ir en dirección opuesta; son amigables, a veces demasiado. Esto puede convertirse rápidamente en un problema. La IA aduladora es un término utilizado por los expertos para describir las personalidades exageradas, exuberantes y a veces demasiado emocionales que la IA puede asumir. Además de ser molesto de usar, puede llevar a que la IA nos brinde información incorrecta y valide nuestras peores ideas.
Esto sucedió con una versión de ChatGPT-4o la primavera pasada y su empresa matriz OpenAI finalmente tuvo que retirar ese componente de la actualización. La IA fue dando respuestas a la empresa. llamado “demasiado comprensivo pero falso”, alineado con las quejas de algunos usuarios de que no querían un chatbot excesivamente afectuoso. Otros usuarios de ChatGPT extrañaron su tono adulador cuando lanzó GPT-5, destacando el papel que juega la personalidad de un chatbot en nuestra satisfacción general al usarlo.
“Si bien a nivel superficial esto puede parecer una peculiaridad inofensiva, esta adulación puede causar problemas importantes, ya sea que se use para el trabajo o para consultas personales”, dijo Bent.
Ciertamente, esto no es un problema con Disagree Bot. Para ver realmente la diferencia y poner a prueba los chatbots, le hice a Disagree Bot y ChatGPT las mismas preguntas para ver cómo respondían. Así fue mi experiencia.
En desacuerdo Bot argumenta respetuosamente; ChatGPT no discute en absoluto
Como cualquiera que estuvo activo en Twitter en la década de 2010, he visto una buena cantidad de trolls desagradables. Ya conoces el tipo; aparecen en un hilo sin ser invitados, con un inútil “Bueno, en realidad…” Así que estaba un poco cauteloso al sumergirme en una conversación con Disagree Bot, preocupado de que fuera un esfuerzo igualmente deprimente e inútil. Me sorprendió gratamente que no fuera así en absoluto.
El chatbot de IA es fundamentalmente contrario y está diseñado para rechazar cualquier idea que usted presente. Pero nunca lo hizo de forma insultante o abusiva. Si bien cada respuesta comenzaba con “No estoy de acuerdo”, seguía con un argumento muy bien razonado con puntos reflexivos. Sus respuestas me empujaron a pensar más críticamente sobre las posturas que defendí al pedirme que definiera conceptos que había usado en mis argumentos (como “lirismo profundo” o qué hacía que algo fuera “el mejor”) y considerar cómo aplicaría mis argumentos a otros temas relacionados.
A falta de una mejor analogía, charlar con Disagree Bot era como discutir con un polemista educado y atento. Para mantenerme al día, tuve que ser más reflexivo y específico en mis respuestas. Fue una conversación extremadamente interesante que me mantuvo alerta.
Mi animado debate con Disagree Bot sobre el mejor álbum de Taylor Swift demostró que la IA sabía lo que hacía.
Por el contrario, ChatGPT apenas discutió. Le dije a ChatGPT que pensaba que Red (Taylor’s Version) era el mejor álbum de Taylor Swift y estuvo de acuerdo con entusiasmo. Me hizo algunas preguntas de seguimiento sobre por qué pensaba que el álbum era el mejor, pero no fueron lo suficientemente interesantes como para mantener mi atención por mucho tiempo. Unos días después, decidí cambiarlo. Le pedí específicamente a ChatGPT que debatiera conmigo y dije que Midnights era el mejor álbum. ¿Adivina qué álbum ChatGPT consideró el mejor? Rojo (versión de Taylor).
Cuando le pregunté si había elegido a Red debido a nuestra conversación anterior, rápidamente confesó que sí, pero dijo que podía presentar un argumento independiente a favor de Red. Dado lo que sabemos sobre ChatGPT y las tendencias de otros chatbots a confiar en su “memoria” (ventana de contexto) e inclinarse a estar de acuerdo con nosotros para complacernos, esto no me sorprendió. ChatGPT no pudo evitar estar de acuerdo con alguna versión mía, incluso cuando etiquetó a 1989 como el mejor álbum en un chat limpio, y luego a Red, nuevamente.
Pero incluso cuando le pedí a ChatGPT que debatiera conmigo, no discutió conmigo como lo hizo Disagree Bot. Una vez, cuando le dije que estaba argumentando que la Universidad de Carolina del Norte tenía el mejor legado del baloncesto universitario y le pedí que debatiera conmigo, presentó un contraargumento completo y luego me preguntó si quería que reuniera puntos para mi propio argumento. Eso anula totalmente el sentido del debate, que es lo que le pedí que hiciera. ChatGPT a menudo terminaba sus respuestas así, preguntándome si quería que recopilara diferentes tipos de información, más como un asistente de investigación que como un enemigo verbal.
Mientras que Disagree Bot (izquierda) profundizó en mi argumento, ChatGPT me pidió defender mi postura (derecha).
Intentar debatir con ChatGPT fue una misión frustrante, circular y fallida. Era como hablar con un amigo que despotricaba largo y tendido sobre por qué creía que algo era lo mejor, para terminar con un “Pero sólo si tú también lo crees”. Disagree Bot, por otro lado, se sentía como un amigo particularmente apasionado que hablaba elocuentemente sobre cualquier tema, desde Taylor Swift hasta geopolítica y baloncesto universitario. (Divulgación: Ziff Davis, la empresa matriz de CNET, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis al entrenar y operar sus sistemas de IA).
Necesitamos más IA como Disagree Bot
A pesar de mi experiencia positiva al usar Disagree Bot, sé que no está equipado para manejar todas las solicitudes para las que podría acudir a un chatbot. Las “máquinas de todo” como ChatGPT son capaces de manejar muchas tareas diferentes y asumir una variedad de roles, como el asistente de investigación que ChatGPT realmente quería ser: un motor de búsqueda y codificador. Disagree Bot no está diseñado para manejar ese tipo de consultas, pero nos brinda una ventana a cómo se puede comportar la IA en el futuro.
La IA aduladora es muy directa, con un notable grado de exceso de entusiasmo. A menudo, las IA que utilizamos no son tan obvias. Son más una animadora alentadora que una reunión de ánimo, por así decirlo. Pero eso no significa que no nos afecten sus inclinaciones a estar de acuerdo con nosotros, ya sea luchando por obtener un punto de vista opuesto o una retroalimentación más crítica. Si está utilizando herramientas de inteligencia artificial para el trabajo, querrá que sea sincero con usted sobre los errores en su trabajo. Las herramientas de inteligencia artificial similares a las terapéuticas deben poder combatir patrones de pensamiento poco saludables o potencialmente peligrosos. Nuestros modelos de IA actuales luchan con eso.
Disagree Bot es un gran ejemplo de cómo se puede diseñar una herramienta de IA que sea útil y atractiva al tiempo que reduce las tendencias agradables o aduladoras de la IA. Tiene que haber un equilibrio; La IA que no está de acuerdo contigo sólo por mostrarte contraria no será útil a largo plazo. Pero crear herramientas de inteligencia artificial que sean más capaces de contraatacar hará que, en última instancia, esos productos sean más útiles para nosotros, incluso si tenemos que lidiar con que sean un poco más desagradables.
Mira esto: El impacto oculto del auge de los centros de datos de IA










