Columnas

DeepSeek y los desafíos regulatorios: datos, privacidad y límites éticos del gobierno chino

Por Lucas Chávez Grille*.

El avance tecnológico se enfrenta constantemente a un desafío clave: equilibrar la innovación con la protección de derechos fundamentales. La irrupción de DeepSeek, una herramienta de inteligencia artificial de última generación, no es una excepción. Aclamada por su capacidad para procesar grandes volúmenes de datos en tiempo récord, su llegada al mercado ha suscitado preguntas complejas sobre los límites regulatorios y éticos, especialmente cuando se examina bajo la lente del entorno chino, donde las normas de privacidad son significativamente más laxas en comparación con los estándares occidentales.

Lucas Chávez Grille

Según un informe del Asia-Pacific Privacy Framework 2024, el 90% de las empresas tecnológicas chinas están obligadas por ley a cooperar con las autoridades estatales en el acceso y procesamiento de datos, bajo marcos normativos como la Ley de Ciberseguridad de 2017 y la Ley de Protección de Información Personal (PIPL) de 2021. Aunque esta última introdujo mejoras importantes en el ámbito de la transparencia, organizaciones como Human Rights Watch han advertido que persisten serias brechas, especialmente debido a la amplia discrecionalidad del Estado para acceder a datos personales. En este contexto, DeepSeek opera en un entorno que algunos expertos han descrito como un «vacío ético regulatorio».

Por otro lado, cifras globales ilustran la creciente preocupación. Según el World Economic Forum Global Risks Report 2023, el 60% de los encuestados identificaron la falta de regulación sobre inteligencia artificial como una de las principales amenazas emergentes para la próxima década. En Europa, el Reglamento General de Protección de Datos (GDPR) se erige como un modelo a seguir, imponiendo sanciones de hasta el 4% de los ingresos globales a las empresas que incumplen sus estrictos requisitos. En 2022, estas sanciones ascendieron a más de €2,800 millones, lo que demuestra un creciente esfuerzo por proteger la privacidad individual frente a la expansión de herramientas tecnológicas.

Sin embargo, la diferencia es abismal cuando se comparan estas cifras con las prácticas en China. Investigaciones del Stanford Institute for Human-Centered AI señalan que tecnologías como DeepSeek tienen acceso a bases de datos masivas que, aunque habilitan avances significativos en eficiencia y precisión, también representan riesgos para los derechos fundamentales. Por ejemplo, se estima que en China el 80% de los datos generados por usuarios provienen de sistemas de monitoreo y vigilancia, muchos de ellos utilizados sin un consentimiento informado.

Además, la falta de estándares globales unificados exacerba el problema. Según datos de McKinsey & Company, el mercado de la inteligencia artificial podría alcanzar un valor de $15.7 billones para 2030, pero la fragmentación regulatoria pone en riesgo tanto la competitividad como la protección de los derechos fundamentales. Las empresas que operan bajo normativas permisivas podrían tener una ventaja desleal sobre aquellas sometidas a regulaciones estrictas, como ocurre con DeepSeek frente a competidores europeos o estadounidenses.

Para abordar estos desafíos, es imperativo fortalecer las alianzas internacionales y desarrollar marcos regulatorios globales que equilibren innovación y responsabilidad. Organismos como la OCDE han sugerido la creación de un sistema de auditorías tecnológicas internacionales, inspirado en el Paris Call for Trust and Security in Cyberspace de 2018, que permita evaluar y certificar herramientas como DeepSeek bajo criterios éticos y de respeto a los derechos humanos.

En conclusión, aunque DeepSeek promete avances notables en diversos sectores, también es un recordatorio de los peligros inherentes a la falta de regulación robusta. Si el desarrollo tecnológico no se guía por principios éticos sólidos, los costos a largo plazo podrían superar los beneficios inmediatos. Es, por tanto, una responsabilidad global establecer límites claros que protejan la privacidad y la dignidad humana en la era de la inteligencia artificial.

*Lucas Chávez Grille. Licenciado en Derecho de la Universidad de Chile. Profesor Ayudante de Derecho Administrativo U. de Chile

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
Close