La definición legal de la Inteligencia Artificial: cómo evitar que la ley nazca vieja
Hace unos meses, la Suprema Corte de Justicia de la Nación (SCJN) se enfrentó a una pregunta inédita: ¿cómo debía entenderse la Inteligencia Artificial (IA) dentro de un proceso penal? El caso parecía sencillo: se trataba de la utilización de imágenes alteradas con ayuda de programas automatizados.
La Corte, en su resolución, adoptó una definición de IA muy estrecha, vinculada casi exclusivamente a la manipulación digital de imágenes. Lo que parecía un tecnicismo judicial en realidad puso en evidencia un problema de fondo: si el máximo tribunal del país fija una definición tan limitada, ¿qué pasará cuando esa definición deba aplicarse a otros contextos, como un accidente causado por un vehículo autónomo, un despido decidido por un algoritmo o una obra generada por una máquina creativa?
El dilema no es menor. Definir jurídicamente la Inteligencia Artificial equivale a trazar los límites de un territorio todavía en exploración. Una definición muy abierta puede resultar imprecisa y riesgosa; una definición demasiado cerrada puede dejar fuera fenómenos que ya forman parte de nuestra vida cotidiana. Y lo más grave: si la ley se queda corta desde el inicio, no habrá forma de proteger adecuadamente los derechos de las personas ni de ofrecer certeza a quienes desarrollan y usan estas tecnologías.
La importancia de las definiciones jurídicas
El derecho no es un diccionario técnico, pero las definiciones legales cumplen una función esencial: delimitan el campo de aplicación de la norma. Una palabra mal definida puede desatar efectos jurídicos enormes. En materia penal, por ejemplo, el principio de legalidad exige que las conductas sancionadas estén descritas con precisión; lo mismo ocurre en el derecho civil, donde la responsabilidad depende de qué conducta se considera negligente o indebida.
En el caso de la Inteligencia Artificial, el riesgo de una definición deficiente es doble. Por un lado, deja huecos que los jueces no siempre podrán llenar con interpretaciones. Por el otro, condena a la legislación a una obsolescencia prematura.
Si la ley mexicana se limita a asociar la IA con imágenes alteradas, ¿cómo responderá cuando un banco utilice algoritmos de crédito para discriminar a mujeres o minorías? ¿Cómo se aplicará cuando un sistema de reconocimiento facial falle y cause la detención indebida de una persona inocente?
La respuesta es que no habrá marco jurídico claro, y cada caso dependerá de la creatividad judicial.
El reto global de definir la IA
El problema no es exclusivo de México. En el mundo los legisladores se preguntan lo mismo: ¿qué es exactamente la Inteligencia Artificial? No hay consenso absoluto ni en la academia ni en la industria.
La Unión Europea, tras años de debates, aprobó en 2024 la llamada Ley de Inteligencia Artificial, que define la IA como sistemas diseñados para operar con cierto grado de autonomía y que pueden producir resultados como predicciones, recomendaciones o decisiones que influyen en entornos físicos o virtuales.
La definición europea es amplia, flexible y no depende de una tecnología en particular, lo que le da cierta capacidad de adaptación.
La OCDE adopta un marco parecido: IA es todo sistema basado en algoritmos que, con base en objetivos definidos, puede generar resultados que afectan su entorno.
Mientras tanto, la UNESCO insiste en que cualquier definición debe incluir principios éticos y de derechos humanos, recordando que lo importante no es sólo la técnica sino sus impactos sociales.
Lo interesante es que todas estas aproximaciones parten de un mismo reconocimiento: la IA no es una herramienta única, sino una familia de tecnologías en constante evolución. Por eso, más que intentar definirla de forma exhaustiva, lo importante es diseñar una definición que resista el paso del tiempo y pueda contextualizarse según el ámbito en que se aplique.
Una definición para México
¿Cómo debería definirse en México? Una buena definición legal debe cumplir con cuatro criterios fundamentales.
El primero es la neutralidad tecnológica. La ley no puede depender de términos técnicos como “redes neuronales profundas” o “Machine Learning supervisado”, porque esas tecnologías podrían volverse obsoletas en cuestión de años.
El segundo criterio es la flexibilidad contextual. La misma definición debe poder servir en materia penal, civil, administrativa y de derechos de autor. No se trata de inventar definiciones distintas para cada rama del derecho, sino de establecer un marco general que cada disciplina pueda precisar.
El tercer criterio es la claridad jurídica. No basta con definiciones elaboradas por ingenieros; la ciudadanía debe poder entender con certeza si una tecnología determinada cae o no dentro del concepto de IA.
El cuarto criterio es el enfoque en riesgos y efectos. Más que atarse a cómo funciona internamente el algoritmo, la ley debe reconocer qué capacidades tiene y qué riesgos genera.
Una propuesta viable podría redactarse así:
“Se entenderá por Inteligencia Artificial todo sistema, programa, modelo o conjunto de algoritmos que, mediante el procesamiento automatizado de datos, presente capacidades de aprendizaje, inferencia, predicción o generación autónoma de contenido o decisiones, con impacto en entornos físicos o digitales.”
Esta redacción es suficientemente amplia para abarcar chatbots, sistemas de diagnóstico médico, algoritmos de crédito o plataformas de reconocimiento facial, pero excluye programas básicos que no aprenden ni deciden, como una hoja de cálculo.
Implicaciones en el derecho penal
En el ámbito penal, una definición robusta de IA permitiría diferenciar entre usos legítimos y usos indebidos. La preocupación central es que los algoritmos puedan emplearse para cometer delitos: manipulación de pruebas digitales, producción de pornografía no consentida, fraudes financieros o ciberataques masivos.
El uso de IA como medio para delinquir debería considerarse un agravante, del mismo modo en que lo es emplear armas o medios especialmente dañinos. Además, la definición permitiría a los jueces determinar cuándo una conducta entra dentro de la esfera penal y cuándo se trata simplemente de un uso neutral de la tecnología.
Implicaciones en el derecho civil
En materia civil, la clave está en la responsabilidad por daños. Pensemos en un vehículo autónomo que atropella a un peatón. ¿Quién responde: el conductor, el fabricante, el programador, el proveedor del software? Una definición clara de IA ayuda a establecer desde el inicio que se trata de un sistema con autonomía relativa y, por lo tanto, que el análisis debe centrarse en la diligencia de quienes lo desarrollaron y lo pusieron en circulación.
Sin una definición legal, los jueces mexicanos tendrían que improvisar, lo que genera incertidumbre para las víctimas y para las empresas. Una definición general, combinada con principios de responsabilidad objetiva, puede ofrecer mayor certeza y proteger mejor a la sociedad.
Implicaciones en los derechos de autor y la intervención humana significativa
La irrupción de la Inteligencia Artificial Generativa ha puesto contra la pared las leyes de propiedad intelectual. En México, como en la mayor parte del mundo, la Ley Federal del Derecho de Autor protege únicamente obras con “creación humana”.
La pregunta es entonces: ¿qué ocurre con un cuadro pintado por un algoritmo, una novela redactada por ChatGPT o una canción compuesta por un modelo entrenado con miles de obras previas?
Aquí entra la noción de intervención humana significativa. No se trata de un término nuevo: la Oficina de Copyright de Estados Unidos ya lo utiliza al evaluar solicitudes de registro de obras generadas con IA. En esencia, significa que la aportación humana debe ir más allá de pulsar un botón o introducir una instrucción genérica (“píntame un paisaje al estilo de Van Gogh”).
¿Qué cuenta entonces como significativo? Podríamos pensar en al menos tres niveles de participación:
La concepción creativa: cuando el ser humano define de manera detallada la idea, el estilo, la estructura y los elementos centrales de la obra. Un guionista que utiliza IA como apoyo para generar diálogos, pero que decide la trama, los personajes y la atmósfera, aporta creatividad sustancial.
La selección y curaduría: si la IA produce múltiples variantes y el autor humano escoge, edita y ensambla las piezas para darles unidad, esa selección también constituye un acto creativo. El criterio aquí es similar al de la fotografía: la máquina captura la imagen, pero la mirada humana decide el ángulo, el encuadre y el momento.
La transformación y edición posterior: cuando el resultado generado por IA sirve como base, pero el autor realiza cambios sustanciales, ya sea en el lenguaje, la composición musical o los trazos plásticos. En este caso, la obra final se entiende como una creación híbrida en la que la contribución humana pesa lo suficiente para reclamar autoría.
En cambio, no es significativa la intervención mínima o meramente instrumental. Dar una instrucción vaga, elegir un modelo predeterminado o aceptar sin cambios la primera salida de un algoritmo, no genera un derecho de autor.
En esos supuestos, la obra carece de originalidad atribuible a una persona física y debería considerarse de dominio público o, en su caso, protegerse bajo otras figuras contractuales, como licencias de uso de software.
Definir con mayor precisión qué constituye “significativo” será tarea de los tribunales y de la legislación futura. Una pauta útil podría ser exigir que la aportación humana modifique sustancialmente el resultado en aspectos de forma, contenido o expresión y que pueda acreditarse como fruto de la creatividad personal.
De esta manera, se evita tanto la injusticia de otorgar derechos exclusivos a quien no creó nada, como la tentación de negar protección a quienes, apoyados en la IA, logran producir obras genuinamente originales.
Implicaciones en protección de datos
En el terreno de la privacidad, la definición es clave para garantizar que los mexicanos puedan ejercer el derecho a saber cuándo una decisión que les afecta ha sido tomada por un algoritmo. Si un banco niega un crédito con base en un modelo de IA, el ciudadano debe tener derecho a pedir una explicación y a exigir la revisión de un humano.
Este principio, conocido como “transparencia algorítmica”, depende de que la ley reconozca claramente qué es la IA. Sin esa definición, las empresas podrían argumentar que sus modelos no son “inteligentes” y, por lo tanto, que no están sujetos a reglas de transparencia.
Implicaciones en el derecho administrativo
La administración pública también está adoptando IA: desde sistemas de reconocimiento facial en aeropuertos hasta algoritmos para detectar evasión fiscal. Una definición clara permitirá establecer qué usos son legítimos y cuáles deben prohibirse por atentar contra los derechos humanos.
Por ejemplo, se podría permitir el uso de IA para detectar patrones de evasión, pero prohibir su aplicación en vigilancia masiva sin orden judicial. La definición, en este caso, no sólo protege derechos, también da legitimidad a las instituciones que usan IA de manera responsable.
Hacia una Ley General de Inteligencia Artificial
Todo lo anterior apunta a una conclusión: México necesita una Ley General de Inteligencia Artificial. No basta con parches en el Código Penal o en la Ley de Protección de Datos; se requiere un marco integral que articule principios, definiciones y responsabilidades.
Una ley de este tipo debería incluir, al menos, seis elementos: una definición amplia y flexible de IA, una clasificación de riesgos (bajo, medio, alto, prohibido), principios rectores de uso responsable, reglas de responsabilidad civil y penal, la creación de un Consejo Nacional de Inteligencia Artificial y mecanismos de fomento a la innovación nacional.
El reto es diseñar un marco que no asfixie el desarrollo tecnológico, pero que tampoco deje a los ciudadanos desprotegidos. La definición legal es la piedra de toque de todo ese edificio normativo.
El debate abierto por la Suprema Corte es apenas el inicio de una conversación mucho más amplia. Definir jurídicamente la Inteligencia Artificial no es un ejercicio académico: es un paso crucial para que el Estado mexicano pueda responder a los retos tecnológicos de este siglo.
Si la Corte y el legislador optan por definiciones estrechas, ligadas a casos concretos, la ley nacerá vieja y resultará inútil. Pero si se adopta una definición neutral, flexible y enfocada en riesgos, México tendrá la oportunidad de construir un marco legal moderno, capaz de proteger derechos, fomentar innovación y brindar certeza a todos los actores involucrados.
En el fondo, lo que está en juego no es sólo cómo describimos a la Inteligencia Artificial, sino cómo garantizamos que su uso, inevitable en la vida diaria, sea compatible con una sociedad democrática, justa y respetuosa de los derechos humanos.
