Columnas

La Tecnoética: Programando la Ética en la Inteligencia Artificial y la Robótica

En el contexto actual de acelerado avance en IA, automatización y robótica—evidenciado también por la concesión de dos Premios Nobel en Física y Química a investigadores en el campo de la Inteligencia Artificial—surge una pregunta imperativa: ¿Deben las máquinas inteligentes operar bajo reglas y parámetros éticos al igual que los humanos?

 Por *Gonzalo Álvarez Seura.

El reciente lanzamiento de “Optimus“, el robot humanoide desarrollado por Tesla y presentado por Elon Musk, ha materializado una realidad que hasta hace poco era dominio exclusivo de la ciencia ficción. Estas máquinas son capaces de caminar, levantar objetos e incluso realizar tareas domésticas, reflejando avances significativos en robótica e Inteligencia Artificial (IA). Este hito tecnológico evoca inevitablemente la obra de Isaac Asimov, Yo, Robot (1950), popularizada en el cine por Will Smith en 2004, donde se establecen las Tres Leyes de la Robótica: (1) Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño. (2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si tales órdenes entran en conflicto con la Primera Ley. (3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

En el contexto actual de acelerado avance en IA, automatización y robótica—evidenciado también por la concesión de dos Premios Nobel en Física y Química a investigadores en el campo de la Inteligencia Artificial—surge una pregunta imperativa: ¿Deben las máquinas inteligentes operar bajo reglas y parámetros éticos al igual que los humanos? Hasta ahora, la discusión global sobre los usos éticos de estas tecnologías ha sido principalmente teórica. Ejemplos de marcos normativos incluyen el Reglamento Europeo de Inteligencia Artificial, la Ley Modelo de la Comisión de las Naciones Unidas para el Derecho Mercantil Internacional sobre Contratación Automatizada y el Proyecto de Ley Artificial Intelligence Civil Rights Act del Senado de Estados Unidos (2024). Sin embargo, estos enfoques se centran en el uso de la IA por parte de desarrolladores y usuarios, dejando de lado si las propias máquinas pueden comprender y aplicar principios éticos. Si la ética es un conjunto de reglas o máximas, ¿es posible programarlas en sistemas artificiales o robóticos?

Integrando ética en máquinas Inteligentes, surge así el término «Tecnoética»  que describe las reglas éticas codificables y aprendibles por sistemas de IA y robótica. La tecnoética propone que la ética puede ser conceptualizada como un conjunto de reglas programables, permitiendo traducir principios morales en algoritmos que las máquinas pueden seguir. Esto habilita a los sistemas de IA a tomar decisiones basadas en criterios éticos predefinidos, aprendiendo y adaptándose a contextos cambiantes mientras respetan estos principios.

Gonzalo Álvarez Seura

El filósofo contemporáneo Luciano Floridi sostiene que, en la era de la información, debemos reconsiderar nuestra relación con las tecnologías inteligentes. Floridi (2014) propone que las máquinas pueden y deben ser agentes morales en la “infosfera, un entorno donde humanos y sistemas digitales interactúan constantemente. Bajo esta perspectiva, las máquinas pueden ser diseñadas para reconocer situaciones éticas y actuar de manera coherente con principios morales preestablecidos.

La Ética de Inmanuel Kant como Fundamento Programable, ofrece un punto de partida sólido para esta integración. Kant introduce el imperativo categórico, una ley moral universal que dicta que las acciones deben realizarse según máximas que puedan convertirse en leyes universales (Kant, 1785). Aplicado a la IA, las máquinas podrían ser programadas para evaluar si las acciones que van a realizar podrían ser aceptadas como norma universal sin generar contradicciones o consecuencias negativas para la humanidad. Además, Kant enfatiza que los seres humanos deben ser tratados como fines en sí mismos y no como medios. Esto implica que las máquinas deben ser programadas para respetar la dignidad humana, evitando acciones que instrumentalicen o manipulen a las personas. En términos prácticos, esto es crucial para abordar el problema de los sesgos algorítmicos, donde la IA debe evitar reproducir prejuicios o comportamientos éticamente cuestionables presentes en los datos de entrenamiento.

El filósofo Martin Heidegger reflexionó sobre la esencia de la tecnología y su impacto en la existencia humana. En su ensayo “La pregunta por la técnica” Heidegger (1954) advierte sobre el peligro del “enmarcamiento” (Gestell), donde la tecnología reduce todo a recursos explotables, llevando a la deshumanización. Esto sugiere que las máquinas deben ser programadas para reconocer y respetar la individualidad y profundidad del ser humano, más allá de datos cuantificables.

La noción de máximas éticas puede relacionarse con el concepto heideggeriano de “habitar” el mundo de manera auténtica. Al integrar reglas éticas que reflejen una comprensión profunda del ser humano y su relación con el mundo, es posible orientar la tecnología hacia un uso más ético y confiable.

Finalmente, Jürgen Habermas y su ética comunicativa enfatizan la importancia del diálogo y la comunicación en la construcción de normas éticas (Habermas, 1984). Aplicado a la IA, esto sugiere que las máquinas deberían ser capaces de interpretar y respetar los valores humanos a través de interacciones comunicativas, fomentando un entendimiento mutuo entre humanos y sistemas inteligentes. Esto es especialmente relevante en el ámbito de las IA generativas y los grandes modelos de lenguaje natural (LLM).

Para avanzar hacia una Inteligencia Artificial Ética es fundamental generar conciencia y educación. La implementación de la tecnoética implica desarrollar «algoritmos éticos», integrando principios morales en el núcleo de los sistemas de IA. Esto permitirá a las máquinas evaluar el impacto moral de sus acciones, creando tecnologías que no solo sean eficientes sino también moralmente responsables, respetuosas y seguras para la humanidad.

La tecnoética ofrece así un marco de navegación para guiar el comportamiento de las máquinas inteligentes. Al programar sistemas de IA y robótica con principios éticos universales y una comprensión profunda de la existencia humana, es posible crear tecnologías que no solo sean eficientes sino también responsables, respetuosas y seguras para la humanidad.

*Gonzalo Álvarez Seura, Abogado y Dr. en Derecho. Director Ejecutivo de Tech-Law.ai. Prof. Facultad de Derecho y Humanidades U.Central.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close