noticias

México ya tiene su Ley de IA y trae cárcel incluida: todo lo que necesitas saber antes de que entre en vigor

noticias · 6 min de lectura

México ya tiene su Ley de IA y trae cárcel incluida: todo lo que necesitas saber antes de que entre en vigor

El Senado presenta esta semana la primera Ley de Inteligencia Artificial de México. Deepfakes, neuroderechos, cárcel por mal uso y autorización obligatoria para usar tu imagen: así funciona.

México ya tiene su Ley de IA y trae cárcel incluida: todo lo que necesitas saber antes de que entre en vigor

El Senado de la República mexicana ya tiene lista la primera Ley de Inteligencia Artificial del país. Esta semana se presenta ante el pleno una iniciativa que llegó después de casi 16 meses de trabajo, 72 especialistas consultados y seis partidos políticos que, por una vez, se pusieron de acuerdo en algo. No mames, qué rareza.

Y sí: hay cárcel.

Qué es exactamente esta ley y de dónde salió

El Senado impulsó esta iniciativa con el senador priista Rolando Zapata como coordinador. El proceso involucró a Morena, PAN, PVEM, PRI, PT y Movimiento Ciudadano, que colaboraron en mesas de trabajo con academia, sector público, sector privado, organizaciones de derechos humanos y representantes diplomáticos.

La ley toma como base el modelo de la Ley de IA de la Unión Europea, que clasifica los sistemas por nivel de riesgo y sube las exigencias conforme más peligroso pueda ser su impacto. No es una copia, pero claramente se inspiró ahí.

El objetivo es crear un marco legal para el desarrollo, implementación y uso de la IA tanto en el sector público como en el privado. Y viene con dientes.

Los tres niveles de infracción (y cuándo te pueden meter al bote)

Aquí es donde se pone interesante. La ley clasifica las infracciones en tres categorías:

Leves: avisos, correcciones menores.

Graves: suspensiones temporales, multas, retiro del mercado.

Gravísimas: estas son las que traen consecuencias penales. Entre los actos catalogados como gravísimos están:

  • Usar IA para manipulación cognitiva, política o electoral con fines ilícitos
  • Operar sistemas autónomos letales sin supervisión humana
  • Implementar vigilancia masiva sin respaldo legal ni orden judicial
  • Crear o distribuir deepfakes sexuales sin consentimiento (con énfasis especial en que cuando las víctimas son menores de edad, el consentimiento “será nulo e irrelevante”)
  • Proveer herramientas diseñadas para fraude, extorsión o suplantación de identidad
  • Introducir malware en sistemas de IA

El Congreso de la Ciudad de México ya había propuesto por separado penas de 4 a 8 años de cárcel por deepfakes sexuales, y hasta 12 años cuando involucren menores. La ley federal del Senado apunta en la misma dirección, aunque los montos específicos de multas y los años exactos de prisión se definirán en el texto final que se presente al pleno.

Los neuroderechos: el concepto que poca gente conoce y que puede cambiar todo

Esta es la parte más interesante de toda la ley, y la que menos se está discutiendo en los medios generalistas.

Según Excélsior, la iniciativa reconoce y protege cinco neuroderechos, definidos como derechos diseñados para proteger la identidad personal, la privacidad mental y la libertad de pensamiento frente a sistemas de IA o neurotecnologías que puedan interferir con los procesos cognitivos de las personas. En concreto:

  1. Identidad personal y continuidad psicológica
  2. Privacidad mental
  3. Integridad cognitiva y protección frente a interferencias no consentidas
  4. Autonomía de la voluntad
  5. Equidad y protección contra manipulación neurotecnológica indebida

¿Suena a ciencia ficción? Puede, pero ya existe tecnología capaz de inferir estados emocionales, sesgar decisiones y manipular comportamientos sin que el usuario lo sepa. La ley prohíbe específicamente los sistemas de reconocimiento emocional en contextos laborales y la identificación biométrica masiva sin orden judicial. Eso ya no es ficción.

Que un tema tan delicado como la autonomía mental ya tenga protección legal en México antes que en muchos otros países es, la neta, una chimba.

Qué cambia para empresas, creadores y usuarios de a pie

La ley tiene impacto directo en tres frentes:

Marketing digital y publicidad

Las marcas que usen algoritmos para segmentar audiencias o personalizar publicidad de forma agresiva van a necesitar mayor transparencia. La prohibición de “manipulación cognitiva” apunta directamente a prácticas que hoy son comunes en el marketing programático. Las agencias digitales van a tener que revisar sus playbooks.

Contenido generado con IA

Si quieres usar la imagen, voz o identidad de una persona mediante IA, necesitas autorización expresa. Esto aplica tanto para campañas publicitarias como para videos virales y cualquier contenido sintetizado. Que no se te olvide que hay gente haciendo dinero clonando voces sin permiso de nadie.

Como ya vimos con Google y el debate sobre el uso de datos personales para entrenar sus modelos de IA, el consentimiento informado se está volviendo el eje central de toda la discusión tecnológica global.

Empresas que usan IA de alto riesgo

Sistemas que afecten derechos humanos, seguridad nacional o estabilidad democrática entran en la categoría de alto riesgo y requerirán registro obligatorio, auditorías periódicas y certificación. No es solo instalar ChatGPT en tu empresa y ya. Sistemas de contratación automatizada, scoring crediticio con IA o herramientas de vigilancia laboral van a necesitar pasar por aro.

Las nuevas instituciones que crea la ley

Para que todo esto tenga dientes reales, la ley propone crear:

  • Autoridad Nacional de Inteligencia Artificial: el organismo regulador central
  • Estrategia Nacional de IA: hoja de ruta para el desarrollo del sector
  • Fondo Nacional para el Desarrollo de la IA: recursos para fomentar la innovación
  • Sistema Nacional de Certificación de la IA: para validar que los sistemas cumplen con los estándares

La Autoridad Nacional también tiene poderes para emitir medidas cautelares cuando un sistema de IA ponga en riesgo derechos fundamentales, incluso antes de que se complete un proceso formal de sanción.

El contexto más amplio: México no está solo en esto

No es casualidad que esto pase ahora. La regulación de IA se está acelerando globalmente. La discusión sobre si las empresas de IA deben tener límites éticos en sus contratos de defensa ya llegó hasta los propios fabricantes de modelos. Y la prohibición de sistemas autónomos letales en esta ley mexicana va exactamente en esa dirección.

Lo que hace diferente a esta iniciativa es el enfoque preventivo: en vez de regular cuando ya hay daño, la ley intenta anticipar riesgos antes de que escalen. Los neuroderechos son el ejemplo más claro: protegen contra tecnologías que todavía no son mainstream en México, pero que ya existen y van a llegar.

¿Va a pasar o se va a quedar en el cajón?

El hecho de que sea multipartidista es una señal positiva. Que Morena, PAN, PRI, PVEM, PT y MC se sienten juntos a construir algo es inusual y sugiere voluntad política real. El senador Rolando Zapata ha manejado el proceso con bastante seriedad para los estándares legislativos mexicanos.

La presentación ante el pleno esta semana es el siguiente paso. Después viene el proceso de aprobación, posibles modificaciones en cámara y eventualmente su publicación en el Diario Oficial. No va a ser mañana que entre en vigor, pero el proceso ya arrancó.

Si usas herramientas de IA en tu trabajo diario, ya sea ChatGPT, Claude, Gemini o cualquier otra, vale la pena seguir esto de cerca, porque el marco legal que se apruebe en los próximos meses va a definir qué se puede hacer con esas herramientas en contextos comerciales en México.

¿Crees que la ley va demasiado lejos, o hace falta que sea todavía más estricta? Déjalo en los comentarios, porque este debate apenas está empezando.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar