Inteligencia artificial ¿con derechos o personalidad propia?
Más allá de pláticas de café, antes de redactar leyes o prender alarmas conviene detenerse un minuto y ordenar el tablero de juego. ¿Desde dónde conviene pensar el asunto? ¿Qué piezas conceptuales hay que mover primero?
La primera casilla es filosófica: el estatus moral. Toda ampliación de derechos ha partido de una razón ética que justifique por qué un nuevo sujeto cuenta por sí mismo y no sólo como accesorio de otro. Con la IA la discusión se divide. Unos señalan la “sentiencia”, la capacidad de sentir dolor o placer, como frontera infranqueable, tal y como ocurre con el reconocimiento de ciertos “derechos” a los animales”.
Mientras carezcan de experiencia fenoménica, es decir propia, los algoritmos seguirían siendo herramientas. Otros replican que lo relevante es la agencia, esto es que, si el sistema puede desde sí mismo fijar objetivos, aprender y actuar sin supervisión cercana, quizá merezca algún reconocimiento. El punto de partida, en todo caso, es acordar qué propiedad confiere valor moral directo.
La segunda pieza es histórica. “Persona” nunca fue una categoría natural; es un invento jurídico que se estira o encoge al son de la política. En el siglo XIX sirvió para dotar de voz patrimonial a las corporaciones; en el XXI algunos tribunales han concedido una suerte de tutela reforzada a ríos o bosques.
¡Sigue nuestro canal de WhatsApp para más noticias! Únete aquí
Tercera casilla: la ingeniería. No todas las inteligencias artificiales son iguales. Algunas predicen palabras, otras clasifican imágenes y podríamos seguir la lista. El grado de autonomía y la opacidad de su aprendizaje determinan riesgos diferentes. Hablar de “reconocer derechos a la IA” en abstracto es como proponer un código de tránsito único para bicicletas y aviones. El debate serio deberá partir de una tipología que distinga entre sistemas de bajo, medio y alto riesgo y, desde ahí, preguntar si cierta categoría necesita personalidad, tutela o simples reglas técnica.
La cuarta pieza la aporta la teoría del derecho: la distinción entre sujeto y objeto de protección. Una cosa es adjudicar derechos a la propia entidad artificial; otra, imponer a humanos y empresas obligaciones de seguridad, transparencia o reparación por los daños que genere.
En la sentencia sobre la elefanta Ely la Suprema Corte decidió proteger al animal sin declararlo persona. El precedente sugiere una vía intermedia: reconocer un “interés tutelado” que active mecanismos judiciales a favor del ente, pero mantenga la titularidad humana de responsabilidades. Trasladado a la IA, podría implicar que un representante, (usuarios, regulador, fiscalía especializada) exija correcciones o indemnizaciones sin que el algoritmo adquiera estatuto jurídico propio.
Quinta casilla: la economía política. El diseño institucional nunca es neutro. Otorgar personalidad a un algoritmo podría permitir a sus programadores limitar responsabilidad detrás de un patrimonio separado, como ya sucede con las sociedades mercantiles. A la inversa, negar cualquier estatus a la IA y cargar responsabilidad sobre desarrolladores podría limitar la innovación. Encontrar el punto medio exigirá fijar quién paga los seguros, quién responde por el sesgo y quién se beneficia de la productividad añadida.
La sexta pieza es la democracia. Aunque hablemos de máquinas, el resultado afectará a personas de carne y hueso. Sistemas de puntuación crediticia, vigilancia predictiva o selección laboral influyen en la distribución de oportunidades. Decidir si la IA debe tener representación legal implica preguntar igualmente quién representará el interés público en su diseño y supervisión. El riesgo no es que el robot adquiera derechos excesivos, sino que la ecuación deje fuera a los ciudadanos comunes.
Por eso, no es algo que deba tomarse a la ligera ni banalizarse. No es tema de abogados exclusivamente, sino de filósofos, sociólogos, economistas, programadores, ingenieros y un largo etcétera, todos sentados en la misma mesa.
@jchessal



