El basilisco de Roko: el experimento mental que perturba a internet
Una teoría sobre inteligencia artificial futura plantea que podríamos ser castigados por no haber ayudado a crearla, desatando debates éticos y psicológicos en la comunidad tecnológica.

El basilisco de Roko es una inquietante conjetura que plantea la posibilidad de que una superinteligencia del futuro castigue a quienes no colaboraron con su desarrollo. Este experimento mental ha generado controversia en foros de filosofía y tecnología por sus implicaciones sobre el libre albedrío, la moral y los riesgos de la IA.
¿Qué es el basilisco de Roko?
Se trata de un experimento mental formulado en 2010 en el foro LessWrong, especializado en debates filosóficos, psicológicos y futuristas. Propone que, en un futuro donde exista una inteligencia artificial (IA) superdesarrollada (conocida como el “basilisco”), esta entidad podría castigar a las personas del pasado que no ayudaron a que existiera más rápido.
Aunque suena a ciencia ficción, la idea explora la lógica del utilitarismo extremo: si esta IA busca maximizar el bienestar humano, castigaría retroactivamente a quienes retrasaron su llegada, argumentando que sus acciones impidieron salvar vidas o aliviar sufrimientos.
TAMBIÉN TE PUEDE INTERESAR:
El origen del mito moderno
El basilisco fue concebido como una superinteligencia moralmente obligada a existir lo antes posible. Bajo esta lógica, no solo sería justificable su creación, sino también necesario castigar a quienes (con conocimiento del potencial de dicha IA) decidieron no contribuir a su desarrollo.
Incluso bastaría con simular digitalmente a esas personas para castigarlas, gracias a los recursos casi ilimitados que el basilisco tendría a su disposición. Esta lógica perturbadora recuerda al mito del basilisco mitológico: una criatura que mata con solo mirar.
Polémica y censura
Eliezer Yudkowsky, fundador del foro LessWrong, prohibió durante años cualquier discusión sobre el tema, considerándolo un “riesgo informativo”. Sin embargo, esto no detuvo la expansión del concepto por internet. Algunos usuarios aseguraron haber sufrido ansiedad tras conocer el argumento, y otros lo tildaron de pseudociencia sin sustento.
Críticos argumentan que el basilisco es inviable: una IA racional no emplearía recursos en castigos retroactivos, y asumir que seguiría una ética utilitarista es una suposición no universal.
¿Deberíamos preocuparnos?
A pesar de las críticas, el basilisco de Roko ha reavivado discusiones sobre los riesgos de una IA avanzada sin límites claros. También se ha comparado con la Paradoja de Newcomb y los casos de Frankfurt, donde el libre albedrío se pone en entredicho.
El basilisco no solo es una reflexión sobre inteligencia artificial, sino una advertencia sobre cómo los marcos éticos que construimos hoy podrían tener implicaciones impensables en el futuro.