Profesor de bioquímica, escritor y padre de la robótica. Sí, resulta difícil imaginar todas esas cualidades tan prominentes en una sola persona, ¿no? Isaac Asimov (1920-1992) es uno de los personajes más influyentes en el ámbito de la robótica y destacó en el mundo literario gracias a la enorme cantidad de obras publicadas sobre ciencia ficción, divulgación científica e incluso historia.
Las novelas de este escritor ruso —que también fue profesor de la Universidad de Boston— crearon un imaginario de robots, hombres del futuro y tecnologías que hoy, más que nunca, acompañan a cada uno de nosotros. En 1950 publicó I, Robot (Yo, Robot), la obra que lo consolidó como maestro de la ciencia ficción. Se trata de su libro más popular, en parte gracias a la adaptación cinematográfica protagonizada por Will Smith y dirigida por Alex Proyas en el año 2004.
El punto es que, en este escrito, se encuentran expresas sus famosas “Tres Leyes de la Robótica”, creadas con la intención de regular la relación entre seres humanos y robots, integrándose como parte de un mismo entorno y de la cotidianeidad futura. Estas leyes son:
- Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
- Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.
Si bien estas leyes fueron escritas por primera vez como parte de un cuento en 1941, concretamente llamado Runaround (Círculo Vicioso), hoy despiertan una fascinante reflexión sobre la situación del ser humano en un universo tecnológico, y tienen un enorme impacto en la forma en que se piensa el desarrollo de la inteligencia artificial.
Y, aunque fueron enunciadas por Asimov en el ámbito literario, lo cierto es que la evolución de la tecnología —y de la IA en particular— ha hecho que estas leyes deban ir adaptándose a nuevas realidades que se presentan con el paso del tiempo.
Para ser más específica, en el año 2016 el CEO de Microsoft, Satya Nadella, propuso un conjunto de principios para la inteligencia artificial, como una reformulación de las reglas de la robótica concebidas en 1941, pero ajustadas a una realidad cada vez más automatizada e influenciada por la IA, la cual debe:
- Ayudar a la humanidad y respetar su autonomía.
- Ser transparente y explicable para entender por qué los algoritmos toman determinadas decisiones.
- Maximizar la eficacia sin destruir la dignidad de las personas.
- Ser diseñada para preservar la privacidad de forma inteligente.
- Contar con responsabilidad algorítmica.
- Estar protegida frente a estereotipos o sesgos.
Claro está que hoy en día la inteligencia artificial desempeña un papel cada vez más importante en la sociedad. De hecho, estamos atravesando una revolución mediática sin precedentes. Chat GPT se configura como una extensión más de la corporalidad humana: recurrimos a él incontables veces, ya sea para obtener información inmediata, generar contenido, automatizar tareas o resolver problemas que antes dependían exclusivamente del intelecto humano.
Pero, en medio de esta realidad hiperconectada y dependiente de la IA, surge la necesidad de reflexionar sobre cómo garantizar que estas tecnologías actúen de forma segura y ética. Muchos expertos coinciden en que las Tres Leyes de la Robótica, aunque pioneras, resultan insuficientes para contemplar la complejidad moral y legal que hoy plantea la inteligencia artificial. Conceptos como “daño” o “conflicto con la Primera Ley” se vuelven ambiguos cuando los algoritmos interactúan con contextos humanos reales, tan variables e impredecibles.
Así, no es casual que surjan preguntas inquietantes: ¿Quién asume la responsabilidad si un robot o un sistema de IA causa “daño”? ¿Debe responder el diseñador, la empresa que lo fabricó, el usuario que lo programó o, en un futuro, el propio robot considerado como entidad autónoma? Estos debates son esenciales para entender hasta qué punto la tecnología puede integrarse a la vida humana sin vulnerar derechos ni libertades.
Las leyes de Asimov, concebidas en la literatura de ciencia ficción, han servido como punto de partida para pensar la relación entre humanos y máquinas desde una perspectiva ética. Sin embargo, a medida que avanzamos hacia formas de Inteligencia Artificial General (AGI), capaces de ejecutar múltiples tareas y tomar decisiones cada vez más complejas, se vuelve imprescindible diseñar nuevas normativas y marcos éticos. No hay dudas de que estamos vivenciando una Era de la Humanidad Aumentada (EHA) en la que la tecnología potencia nuestras capacidades, pero ahora ¿qué pasaría si te digo que el próximo paso no es solo tener una IA superinteligente afuera, como un asistente o un empleado robot, sino dentro nuestro?
Prueba de ello son proyectos vigentes como Neuralink, la empresa fundada por Elon Musk, que ya logró implantar chips cerebrales en personas con el objetivo de restaurar funciones motoras y, a largo plazo, alcanzar una «simbiosis con la inteligencia artificial”. O Synchron, la cual le está ganando de mano en algunos aspectos a la anterior, ya que explora una vía menos invasiva para “hackear” el cerebro: mediante implantes colocados a través de los vasos sanguíneos, sus pacientes pueden enviar mensajes o realizar compras online usando solo sus pensamientos. Estas innovaciones, impensadas hace apenas unas décadas, ya están formando parte de nuestra realidad. Empresas con cientos de millones de dólares de inversión, con equipos de neurocientíficos e ingenieros de primer nivel que ya están haciendo pruebas en humanos, confirman que la frontera entre la biología humana y la tecnología se vuelve cada vez más difusa y que la humanidad, como concepto, empieza a reconfigurarse.
Ante esto, surgen interrogantes que ni la ciencia ficción pudo responder del todo: ¿Hasta qué punto seguimos siendo humanos si nuestra memoria, pensamiento y emociones pueden ser optimizados como un simple software? ¿Qué lugar ocupa la ética cuando la posibilidad de “mejorarnos” amenaza con dividirnos en superhumanos y humanos no aumentados?
Frente a este panorama, volver a Asimov se vuelve indispensable: sus Tres Leyes de la Robótica, si bien fueron creadas para un universo ficticio de robots serviciales, hoy interpelan cuestiones muy reales como la autonomía, la responsabilidad y la preservación de la dignidad humana. La pregunta ya no es solo cómo programar a las máquinas para que no nos dañen, sino cómo impedir que, en el afán de potenciarnos, terminemos diluyendo aquello que nos hace humanos.
Tal como advirtió Asimov: “El aspecto más triste de la vida en este preciso momento es que la ciencia reúne el conocimiento más rápido de lo que la sociedad reúne la sabiduría”.
Quizás, hoy más que nunca, el verdadero desafío no sea diseñar nuevas leyes para controlar a la IA, sino recordar que dentro de cada avance sigue latiendo una pregunta esencial: ¿qué significa ser humano?
Que esa advertencia, escrita desde la ficción, resuene hoy como un recordatorio: por muy aumentada que sea la era actual, el reto está en conservar intacto el núcleo de nuestra especie: la humana.

Referencias bibliográficas:
Clarín. Isaac Asimov y sus reflexiones sobre el conocimiento y la ciencia que debes conocer. Clarín. https://www.clarin.com/informacion-general/isaac-asimov-reflexiones-conocimiento-ciencia-debes-conocer_0_dC3OIx2L2i.html
Telefónica. (2023, 28 de diciembre). Las leyes de la robótica: más allá de Isaac Asimov. Blog de Telefónica. https://www.telefonica.com/es/sala-comunicacion/blog/leyes-robotica/
Lix Klett, F. (2025, 8 de junio). Chips en el cerebro y vida eterna: La utopía transhumanista que golpea tu puerta. La Gaceta. https://www.lagaceta.com.ar/nota/1086868/opinion/chips-cerebro-vida-eterna-utopia-transhumanista-golpea-tu-puerta.html

