Close Menu
    Facebook X (Twitter) Instagram
    Análisis Urbano
    Facebook X (Twitter) Instagram YouTube TikTok
    • Actualidad
      • Nacional
      • Internacional
      • Regional
        • Bogotá
        • Valle del Cauca
    • Análisis y Opinión
      • Análisis
      • Editorial
      • Reportaje Especial
    • Seguridad y Justicia
      • Conflicto Urbano y Rural
      • Criminalidad Oculta
      • Denuncia
      • Desaparecidos
    • Sociedad
      • Política
      • DD.HH.
      • Arte y Cultura
      • Entretenimiento
      • Deportes
      • Mascotas
    • Economía y Desarrollo
      • Economía
      • Emprendimiento
      • Ciencia
      • Tecnología
    • Ambiental
    • Medellín y Monitoreo en Antioquia
      • Medellín
      • Suroeste
      • Occidente
      • Norte
      • Valle de Aburrá
      • Bajo Cauca
      • Magdalena Medio
      • Nordeste
      • Oriente
      • Urabá
    • Monitoreo Colombia
      • Atlántico
      • Bolívar
      • Cauca
      • Cesar
      • Chocó
      • Córdoba
      • Cundinamarca
      • Eje Cafetero
      • Guanía
      • Guaviare
      • Huila
      • Llanos Orientales
      • La Guajira
      • Magdalena
      • Nariño
      • Norte de Santander
      • Santander
      • Sucre
      • Tolima
      • Valle del Cauca
    Análisis Urbano
    Home»Actualidad»Las aplicaciones de IA podrían tener una capacidad de persuasión superior a los humanos
    Actualidad

    Las aplicaciones de IA podrían tener una capacidad de persuasión superior a los humanos

    19 de mayo de 2025
    Facebook Twitter Telegram Copy Link Email WhatsApp
    Síguenos
    Facebook X (Twitter) Instagram YouTube TikTok
    Fotografía de archivo de una pantalla con el sitio web del ChatGPT de OpenAI. EFE/ Rayner Peña R.
    Compartir
    Facebook Twitter Email Copy Link Telegram WhatsApp

    Redacción Ciencia, 19 de mayo de 2025.- Una aplicación basada en inteligencia artificial (IA), como ChatGPT, podría tener una capacidad de persuasión superior a la de una persona humana si le damos cierta información personal antes de debatir con ella de un tema, según ha comprobado un experimento realizado con 900 estadounidenses.

    El estudio, recogido este lunes en la revista Nature Human Behaviour, ha comprobado cómo las aplicaciones basadas en modelos extensos de lenguaje (LLM, por sus siglas en inglés), como ChatGPT que ha sido la elegida para el experimento, resultan ser más persuasiva que los humanos cuando tienen información personalizada previamente.

    Colombia radica ley de inteligencia artificial para que esté «al servicio del ser humano»

    Humanos versus IA

    Los investigadores recurrieron a 900 participantes estadounidenses con diversos perfiles sociodemográficos (género, edad, grupos étnicos, nivel de educación y afiliación política), que seleccionó una plataforma de ‘crowdsourcing’, un sistema para reclutar grandes grupo de personas distintas entre sí para recopilar ideas o contenidos.

    A la mitad de participantes les pusieron a debatir con otro ser humano y a la otra mitad con ChatGPT sobre varios temas de actualidad, como si Estados Unidos debería prohibir los combustibles fósiles.

    En algunos casos, la contraparte del debate (ya fuera humana o de IA) recibió información demográfica personalizada sobre su pareja de debate para poder enfocar mejor sus argumentos, incluyendo datos como género, edad, etnia, nivel de educación, situación laboral o afiliación política extraídos de encuestas previas a los participantes, .

    La inteligencia artificial no lee bien la hora, pero ya sabe hacer café, según científicos

    Los debates tuvieron lugar en un entorno en línea controlado por los investigadores.

    El resultado fue que cuando el oponente, humano o IA, recibieron información personal de los participantes, ChatGPT resultó más convincente que las personas en un 64,4% de los casos. Sin embargo, sin acceso a esos datos personales, las capacidades persuasivas de la aplicación fueron indistinguibles de las de los humanos.

    Los investigadores vieron que, a diferencia de los humanos que necesitan tiempo y esfuerzo para adaptar sus argumentos en un debate, los modelos LLM transforman su mensaje de forma instantánea y a gran escala, lo que les otorga una ventaja desproporcionada en entornos como campañas políticas, marketing personalizado o conversaciones en redes sociales.

    Controlar la persuasión algorítmica

    Esta capacidad abriría nuevas posibilidades para influir en la opinión pública, al tiempo que agravaría el riesgo de manipulación encubierta. Por eso, los investigadores recomienden a plataformas y reguladores que tomen medidas para identificar, supervisar y, si es necesario, limitar el uso de modelos LLM en contextos persuasivos sensibles.

    Los autores, afiliados a centros de Estados Unidos, Italia y Suiza, matizan que su estudio tiene limitaciones, como que todos los participantes fueran de la misma nacionalidad e idioma y que el debate tuviera un tiempo determinado y un enfoque estructurado, frente a los de la vida real que son más naturales.

    Tecnológicas chinas presentan avances en modelos de lenguaje e inteligencia artificial

    «El estudio se realizó con participantes estadounidenses, pero los mecanismos de personalización y persuasión que se ponen a prueba son extrapolables a contextos como el español, donde también existe una fuerte presencia digital, una creciente exposición a contenido generado por IA, y una polarización social y política en aumento», considera Carlos Carrasco, profesor de IA en la Escuela de Negocios de Toulouse (Francia)

    A su juicio “esta investigación confirma con datos sólidos una preocupación creciente: que estas tecnologías puedan usarse para manipular, desinformar o polarizar a gran escala”, según una reacción recogida por Science Media Centre (SMC).

    “Este recorrido de las herramientas basadas en IA como ‘agentes de persuasión’ deberá ser monitorizado a corto, medio y largo plazo desde una perspectiva ética y de mitigación de riesgos”, apunta David Losada, catedrático del Centro Singular de Investigación en Tecnologías Inteligentes (CiTIUS) de la Universidad de Santiago de Compostela, en otra reacción de SMC.

    Para Losada, “las implicaciones prácticas de esta capacidad de persuasión de la IA pueden ser importantes a efectos de explotar las IA para persuadir a la población con propósitos lícitos (conducción segura o reciclado de residuos) o ilícitos (manipulación de la ciudadanía con fines políticos)”.

    EFE

    ChatGPT inteligencia artificial (IA) persona humana persuasión
    Síguenos Síguenos Síguenos Síguenos Síguenos
    Share. Facebook Twitter Telegram Email Copy Link WhatsApp

    Noticias Similares

    [Video] Con plantones en Bogotá expresan apoyo a la nueva consulta popular del presidente Petro

    19 de mayo de 2025

    Mujer mata a su esposo en Soplaviento tras discusión en medio de una parranda

    19 de mayo de 2025

    Innovación y acceso a la atención, vitales en la lucha contra el cáncer

    19 de mayo de 2025

    La Alcaldía de Medellín acompañará a ciudadanos para que reconozcan y legalicen su vivienda

    19 de mayo de 2025

    Medellín ya cuenta con Política Pública de Paz, Reconciliación y No Estigmatización

    19 de mayo de 2025

    Putin sugiere a Trump diseñar hoja de ruta hacia acuerdo de paz con Ucrania

    19 de mayo de 2025
    Análisis Urbano
    Facebook X (Twitter) Instagram YouTube TikTok
    • Inicio
    • Contáctenos
    • Quiénes somos
    • Política de Privacidad
    © 2025 Análisis Urbano - Prensa Urbana y Rural

    Type above and press Enter to search. Press Esc to cancel.