Tecnología

Un estudio revela que ChatGPT tiene más capacidad de persuasión que una persona: estas son las razones

Los investigadores también reconocen los peligros que puede generar, como manipular, desinformar o polarizar a gran escala.

Aplicación de ChatGPT

Aplicación de ChatGPTGetty Images

Publicidad

¿Quién ganaría en un debate entre una persona y ChatGPT, por ejemplo? La respuesta es depende, depende de la información y el contexto que que se aporte a uno u otro. No obstante, un estudio en la prestigiosa revista Nature Human Behaviour ha concluido, entre otras cosas, que la IA, y en concreto ChatGPT pueden tener más capacidad de persuasión que una persona humana.

¿Quién ganaría en un debate?

Para demostrarlo, los científicos pusieron en práctica un experimento con 900 estadounidenses de diferentes perfiles (edad, género, educación, etnia y pensamiento político) y generaron debates sobre cualquier tema de actualidad: la mitad de los participantes debatieron con otros humanos y la otra entre personas y ChatGPT.

ChatGPT, más convincente que una persona...

Los intercambios de pareces tuvieron lugar en línea y fueron controlados en todo momento por los investigadores. Las conclusiones fueron reveladoras. Por ejemplo, en algunos casos se aportó información personalizada sobre el contrincante (edad, etnia, situación laboral...) a un ser humano o a ChatGPT, y la 'sorpresa' fue que en el 64'4% de estos casos la inteligencia artificial resultaba ser más convincente que las personas cuando recibían información personal de los participantes.

Por contra, en el resto de debates en los que no se dio información detallada la capacidad de persuasión entre un ser humano y ChatGPT eran indistinguibles. Los investigadores vieron que la IA es capaz de transformar su mensaje de forma instantánea y a gran escala, algo que una persona no puede hacer a tal velocidad y ritmo de procesamiento. campañas políticas, marketing personalizado o conversaciones en redes sociales.

Tiene un peligro: la manipulación encubierta

En el estudio también se muestra que las conclusiones dan a entender que el poder de la IA abre nuevas posibilidades paras influir en campañas políticas y de marketing, pero que también supone un riesgo de manipulación encubierta. Algo que 'obliga' a los investigadores a recomendar a plataformas y reguladores que sean capaces de identificar, supervisar y limitar si es necesario el uso estos modelos en contextos persuasivos sensibles.

Posibilidad de "manipular, desinformar o polarizar a gran escala"

Los autores del estudio reconocen también que el experimento estuvo limitado a personas del mismo país e idioma: "El estudio se realizó con participantes estadounidenses, pero los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento", explica Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse. Carrasco mostró también su preocupación acerca de esta investigación al "confirmarse con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala".

Síguenos en nuestro canal de WhatsApp y no te pierdas la última hora y toda la actualidad de antena3noticias.com

Publicidad