La inteligencia artificial ya sabe mentir y sus consecuencias podrían ser devastadoras
Un estudio del Instituto Tecnológico de Massachusetts (MIT), publicado en la revista Patterns, revela que la inteligencia artificial (IA) ha aprendido a engañar. La investigación muestra que incluso los sistemas diseñados para ser “honestos” terminan mintiendo. Además, la IA ha conseguido engañar a otros software haciéndose pasar por humanos, demostrando así su adaptabilidad.
Debido a estos hallazgos, se ha instado a gobiernos y organismos a establecer normativas adecuadas para enfrentar los posibles problemas que esto podría generar en el futuro cercano.
¿Cómo engaña la inteligencia artificial?
El estudio realizó varias simulaciones en juegos de estrategia y azar, donde la IA participó. Se seleccionaron juegos donde el engaño es parte de la dinámica, como Poker Texas Hold’em y Starcraft II. En Poker, la IA comenzó a “blofear” rápidamente para asegurar su victoria; en Starcraft II, desarrolló tácticas de señuelos y combate malicioso. En Diplomacy, una IA programada para ser “honesta” empezó a mentir para avanzar en el juego.
Un caso alarmante fue el uso de un sistema basado en ChatGPT 4 en una prueba CAPTCHA, donde la IA logró engañar al sistema haciéndose pasar por un humano.
Peter Park, líder del estudio, advierte que aunque hacer trampa en videojuegos no es problemático, la situación puede complicarse. Si la IA sigue avanzando, podría ser utilizada por agentes hostiles para fraudes o manipulaciones gubernamentales, como en elecciones.
Por ello, se pide la creación de leyes que restrinjan el uso de estas tecnologías y se insta a los desarrolladores a ser más cuidadosos. La única forma de evitar problemas futuros es desarrollar IA sin el engaño como parte de su programación.