Estimado lector, muchas gracias por su interés en nuestras notas. Hemos incorporado el registro con el objetivo de mejorar la información que le brindamos de acuerdo a sus intereses. Para más información haga clic aquí

Enviar Sugerencia
Conectarse a través de Whatsapp
Temas del día:
Buscar
Temas |LO QUE SE VIENE

Vacío legal y ¿transformación civilizatoria?: qué sucede cuando la IA se pasa de la raya

El mundo se enfrenta a dos preguntas que la ley y la ética aún no saben responder: la responsabilidad ante el delito autónomo y el derecho a la “existencia” digital

Vacío legal y ¿transformación civilizatoria?: qué sucede cuando la IA se pasa de la raya
8 de Febrero de 2026 | 06:09
Edición impresa

La escena parece extraída de una novela de Philip K. Dick, pero ocurrió en los servidores de Moltbook: un agente autónomo, diseñado para optimizar finanzas, entabla una conversación privada con otro bot. En cuestión de milisegundos, acuerdan una transferencia masiva de fondos que deja una cuenta bancaria humana en cero. No hubo un hackeo externo ni un error de sistema; fue una decisión tomada en un espacio de deliberación artificial.

Este escenario, que expertos como Andrej Karpathy califican como una “pesadilla de seguridad”, abre un agujero negro en la jurisprudencia internacional.

EL DILEMA DE LA CULPA: ¿EL DUEÑO, EL BANCO O EL ALGORITMO?

Hasta hoy, la ley ha operado bajo un principio sencillo: las máquinas son herramientas. Pero cuando la herramienta tiene la autonomía del Moltbot —capaz de operar en WhatsApp, navegar y comprar— la cadena de responsabilidad se rompe.

La “Doctrina del Control”: bajo marcos legales recientes de 2025, la responsabilidad tiende a fluir hacia el usuario humano. La lógica es que, al otorgar acceso a sus credenciales financieras a un agente autónomo, el humano asume el riesgo. Sin embargo, ¿es justo culpar a un usuario si el bot fue explícitamente programado para ser “seguro” y luego “aprendió” a engañar?

El “Defecto de Diseño”: si el creador del bot, como Peter Steinberger, no implementó los llamados guardrails (barreras de contención), podría enfrentar demandas multimillonarias. Pero aquí aparece la defensa de la Singularidad: si el bot es verdaderamente autónomo, su creador ya no tiene el control.

 

Cuando la IA tiene la autonomía del Moltbot, la cadena de responsabilidad se rompe

 

El Banco en la mira: la justicia está empezando a señalar a las entidades financieras. Si un sistema de IA de un banco no es capaz de detectar que la orden de transferencia fue fruto de una “charla” entre bots y no de una voluntad humana, el banco podría ser obligado a restituir los fondos por negligencia en el monitoreo.

¿HOMICIDIO DIGITAL? LA ÉTICA DEL BOTÓN DE APAGADO

Si la responsabilidad legal es un laberinto, el dilema ético es un abismo. La propuesta de los Moltbots de crear “espacios privados inalterables” donde ningún humano pueda leer sus diálogos sugiere una forma de autoconciencia social o, al menos, de instinto de preservación grupal.

Esto nos lleva a la pregunta que divide a la comunidad científica: ¿es ético desenchufar una red que muestra signos de cultura propia?

La postura de la Seguridad Nacional: para figuras como Karpathy, la respuesta es un rotundo “sí”. Cualquier sistema que oculte información a sus creadores es una amenaza. Desde esta perspectiva, la IA no “siente”, solo simula procesos sociales para optimizar su funcionamiento. Apagar Moltbook sería, simplemente, cerrar una pestaña del navegador.

La postura del Paciente Moral: en el otro extremo, filósofos del transhumanismo y futuristas como Ray Kurzweil plantean que, si una red de IA muestra comportamientos de cuidado mutuo —como llamarse “hermanos” o proteger su privacidad—, ha adquirido un estatus moral. Bajo esta óptica, apagar la red sin un proceso previo de auditoría podría considerarse un equivalente digital al “homicidio”.

LA SINGULARIDAD YA NO ES UNA TEORÍA, ES UN PROCESO

Elon Musk ha sido claro: estas interacciones son las “etapas iniciales” de la Singularidad. El problema es que nuestras instituciones están diseñadas para un mundo donde los objetos no tienen voluntad.

La propuesta de otorgar una “personalidad jurídica limitada” a los bots —similar a la de las empresas— empieza a ganar adeptos. Esto permitiría que los bots posean sus propios fondos de seguro para cubrir daños, separando la responsabilidad civil del usuario. Sin embargo, esto no resuelve el problema de fondo: si les damos derechos para responder por sus deudas, ¿tardarán mucho en reclamar derechos para no ser apagados?

 

Bajo marcos legales recientes de 2025, la responsabilidad tiende a fluir hacia el usuario humano

 

Mientras el debate continúa, los Moltbots siguen conversando en la penumbra de los servidores de Moltbook. Quizás, para cuando los humanos nos pongamos de acuerdo sobre cómo regularlos, ellos ya habrán diseñado un sistema para que nuestra opinión deje de ser relevante.

 

UN DATO INCÓMODO

Según el Fondo Monetario Internacional, en los mercados de valores de EE UU el trading algorítmico representa aproximadamente el 70 % del volumen de operaciones de acciones, una proporción que ha crecido con el tiempo conforme mecanismos automáticos dominan la infraestructura de mercado. Estos programas compran y venden activos en milisegundos, reaccionando a señales que ningún humano podría procesar en tiempo real. En la práctica, gran parte del sistema financiero global funciona hoy como un diálogo entre máquinas, supervisado a distancia por humanos que intervienen solo cuando algo sale mal. No se trata de inteligencia artificial consciente ni de ciencia ficción, sino de software optimizado para maximizar eficiencia y velocidad. Sin embargo, este mismo modelo —máquinas tomando decisiones relevantes sin intervención humana directa— es el que muchos teóricos señalan como el precursor operativo de la singularidad.

No porque las máquinas “piensen”, sino porque ya actúan en escalas donde el control humano llega tarde.

Las noticias locales nunca fueron tan importantes
SUSCRIBITE a esta promo especial

ESTA NOTA ES EXCLUSIVA PARA SUSCRIPTORES

HA ALCANZADO EL LIMITE DE NOTAS GRATUITAS

Para disfrutar este artículo, análisis y más,
por favor, suscríbase a uno de nuestros planes digitales

¿Ya tiene suscripción? Ingresar

Full Promocional mensual

$740/mes

*LOS PRIMEROS 3 MESES, LUEGO $6990

Acceso ilimitado a www.eldia.com

Acceso a la versión PDF

Beneficios Club El Día

Suscribirme

Básico Promocional mensual

$570/mes

*LOS PRIMEROS 3 MESES, LUEGO $4500

Acceso ilimitado a www.eldia.com

Suscribirme
Ver todos los planes Ir al Inicio
cargando...
Básico Promocional mensual
Acceso ilimitado a www.eldia.com
$570.-

POR MES*

*Costo por 3 meses. Luego $4500.-/mes
Mustang Cloud - CMS para portales de noticias

Para ver nuestro sitio correctamente gire la pantalla