¿Estás cediendo tus datos a China? DeepSeek y la carrera por la supremacía de la IA

Joan Bisonó — 2025-01-29T09:00:00.000Z

Inteligencia Artificial · IA · Privacidad · Protección de Datos · China · LLM · DeepSeek · República Dominicana

DeepSeek R1 y la carrera por la supremacía de la IA. Riesgos de privacidad al ceder datos a China. Análisis de políticas de datos y protección en República Dominicana.

La carrera armamentística ha comenzado. Pero esta vez no se trata de potencia de fuego, sino de inteligencia. China y Estados Unidos están enzarzados en una batalla, no por armas, sino por ver quién puede replicar la cognición humana de manera más eficiente, barata y a una escala sin precedentes. No se trata solo de innovación, es una carrera por dominar la frontera de la inteligencia artificial. Una guerra no de balas, sino de algoritmos. La carrera armamentística de la IA ha comenzado.

A lo largo de los últimos días, aquellos que invierten en el mercado de valores extranjero, en particular en EE. UU., han visto sus carteras afectadas significativamente, todo por el lanzamiento del modelo LLM de la compañía High FlyerAI, el DeepSeek R1.

Lo que parecía una inversión segura en la industria de los microchips, impulsada por los desarrollos de vanguardia en inteligencia artificial y los planes del ambicioso gobierno de EE. UU. de invertir 500,000.00 millones de dólares estadounidenses en la formación de su propio gigante de infraestructura de inteligencia artificial, “Stargate”, se ha convertido en la peor pesadilla de los inversores. El índice Philadelphia Semiconductor, un indicador clave del mercado de valores de Estados Unidos para acciones tecnológicas y de microchips, está ahora cayendo hacia su mayor caída en un solo día en casi cinco años. Todo esto se reduce a una realidad alarmante: China ha logrado replicar aquello en lo que Estados Unidos ha invertido miles de millones, pero a una fracción del coste.

En solo unos años, la empresa DeepSeek ha creado un modelo de IA equivalente al modelo O1 de OpenAI el cual tiene un precio de 200.00 dólares estadounidenses al mes, pero lo ha hecho para que sea de uso gratuito y con una parte del gasto, la mano de obra y los recursos. Y lo que es aún más sorprendente, lo ha conseguido a pesar de las restricciones comerciales de microchips de EE. UU. con China, diseñadas específicamente para evitar tales avances.

Incluso con una desventaja, China ha encontrado la manera de aprovechar chips desactualizados, no solo para ejecutar algoritmos de IA de última generación, sino también para lograr una eficiencia de precios del 96,4% en comparación con el modelo estadounidense de OpenAI. A modo de comparación, el algoritmo R1 procesa 1 millón de tokens a un coste de solo 0.55 dólares estadounidenses por entrada y 2.19 dólares estadounidenses por salida, mientras que O1 requiere 15.00 dólares estadounidenses por entrada y 60.00 dólares estadounidenses por salida por cada millón de tokens.

Aún más sorprendente, y la fuente de gran parte de la emoción, es que DeepSeek es completamente gratuito. Gratis en todos los sentidos de la palabra. Puede iniciarse en su página web y utilizarlo como cualquier GPT normal, o ejecutarlo localmente.

Funciona bajo la licencia de uso libre del MIT, lo que permite que cualquiera pueda replicarlo sin coste alguno. Pero lo que es más importante, es comercialmente viable: cualquiera puede reproducirlo, modificarlo e incluso venderlo sin enfrentarse a restricciones de licencia. Todo lo que se necesita es una instalación local en una máquina capaz, y ya está listo para funcionar. Por supuesto, estos modelos exigen una gran potencia de cálculo. En teoria, el modelo R1 requiere alrededor de 1600 GB de VRAM, lo que equivale a 16x procesadores gráficos NVIDIA H100, cada uno costando alrededor de 18,000.00 dólares estadounidenses, una configuración que cuesta aproximadamente 200,000.00 dólares estadounidenses. A pesar de esto, aficionados de la IA han logrado correr el mismo modelo, con todas sus capacidades, en una computadora especializada que cuyo costo no supera los 6,000.00 dólares estadounidenses. Con esta inversión, el usuario es dueño de su propio ChatGPT. Sin restricciones. Sin cuotas mensuales. Sin censura. Nada. Es un modelo idéntico al que está en línea.

Pero, como todo lo que parece demasiado bueno para ser verdad... claro que lo es. ¿Cuál es el truco? ¿Por qué China socavaría deliberadamente al mayor gigante tecnológico de EE. UU., replicando descaradamente su IA de vanguardia y regalándola? Básicamente, colapsando el mercado de microchips. Bueno, el truco es que no es gratis.

La mayor preocupación en torno a esta tecnología, especialmente dado su origen en China, refleja los mismos problemas a los que se enfrentaron los EE. UU. con TikTok. La popular plataforma de streaming de contenidos se convirtió recientemente en el centro de una histórica decisión del Tribunal Supremo, que dio lugar a una prohibición total del servicio. Aunque la prohibición duró solo un día, puso de relieve un punto crítico: la privacidad y la seguridad de los datos no son sólo preocupaciones, son prioridades nacionales.

Claro, si quieres usar su API y acceder a sus servidores, tendrás que pagar por tokens; después de todo, estarías alquilando su potencia computacional. Pero si decides ejecutarlo localmente, el software en sí no tiene ningún coste. Sin suscripciones, sin cuotas iniciales. Básicamente, es plug-and-play.

Pero si es por eso, pregúntele al ciudadano medio a dónde van sus datos o qué hacen las empresas con ellos, y probablemente se encogerá de hombros. “No me importa”, podría decir. Después de todo, no es su dinero el que está en juego. Nadie está tocando sus ahorros, sus propiedades o la comida en su mesa. Entonces, ¿por qué debería importarle? Es una pregunta justa, y si no está profundamente involucrado en el tema, podría llegar a la misma conclusión. ¿Por qué preocuparse por los datos? Hacen que los servicios sean gratuitos, ¿verdad? Mantienen las aplicaciones en funcionamiento, las redes sociales en movimiento y los pagos del alquiler al día. ¿Qué hay de malo en ello?

Conmemorando el Dia de la Protección de Datos celebrados el pasado 28 de enero, hay que comprender que la protección de estos derechos es crucial porque, tal y como establece el artículo 44 de la Constitución, la privacidad es un derecho fundamental y la Ley 172-13 lo refuerza al salvaguardar los datos personales de los individuos. La razón es simple: en el mundo digital de hoy, los datos personales son nada menos que oro digital.

Al leer la política de privacidad de DeepSeek, se establece lo siguiente: “Cuando utiliza nuestros Servicios, podemos recopilar su entrada de texto o audio, mensajes, archivos cargados, comentarios, historial de chat u otro contenido que proporcione a nuestro modelo y Servicios... la información personal que recopilamos de usted puede almacenarse en un servidor ubicado fuera del país donde vive. Almacenamos la información que recopilamos en servidores seguros ubicados en la República Popular China” (Traducción libre).

Es importante tener en cuenta que OpenAI, en los servicios ofrecidos a traves de ChatGPT, también almacena datos de los usuarios. Sin embargo, esto se rige por la extremadamente estricta normativa introducida en el 2018 por la Eunion Europea, el GDPR.

Si bien OpenAI implementa medidas para mejorar la privacidad de los datos, el pleno cumplimiento del GDPR requiere la acción tanto de los desarrolladores como de los usuarios. Una de las formas clave en que ChatGPT mantiene el cumplimiento de los datos de IA es a través de la anonimización. Aunque ChatGPT puede utilizar las conversaciones para perfeccionar sus algoritmos y mejorar las respuestas, este proceso está diseñado para evitar que los datos se vinculen directamente a usuarios individuales. Lo cual no vemos presente para nada en las políticas de DeepSeek.

DeepSeek recopila datos por dos razones principales: para mejorar la experiencia del usuario a través de mejores servicios y actualizaciones, y para cumplir con los requisitos legales. A pesar de esto, tan inocente como parecieran sus intenciones, la empresa reconoce abiertamente que puede compartir estos datos con anunciantes y socios analíticos, reservándose básicamente el derecho a vender su información. Y esa no es la única preocupación que se debería tener.

Continuando con su política de privacidad, DeepSeek afirma: “De acuerdo con las leyes y reglamentos aplicables, podríamos procesar su información personal técnicamente para impedir su identificación exacta y utilizarla de forma anónima” (Traducción libre). Exactamente: pueden hacerlo, pero no hay garantía de que lo hagan. A diferencia de las empresas sujetas a normativas estrictas como el GDPR, DeepSeek opera en una jurisdicción con leyes de protección de datos mucho más débiles.

Un examen más detallado de su política de recopilación de datos revela una preocupante falta de claridad: sus explicaciones son vagas, extremadamente vagas. No especifica detalles cruciales, como cuánto tiempo se conservan los datos de los usuarios o cómo se utilizan. Peor aún, no ofrece salvaguardias claras para proteger la privacidad de los usuarios o garantizar la integridad de los mismos.

Es crucial reconocer que la República Popular China, donde opera DeepSeek, tiene leyes de protección de datos relativamente débiles. Esto significa que cuando utilizas DeepSeek, tus datos no solo se almacenan en sus servidores, sino que el gobierno chino también podría acceder a ellos o vigilarlos debido a la gran influencia del Partido Comunista Chino sobre las empresas nacionales.

Todo esto debería hacer saltar las alarmas. Pero volvamos a la pregunta: ¿por qué importa?

Algunos dirán: “Yo sólo utilizo ChatGPT para redactar correos electrónicos”. Y es cierto: la mayoría de nosotros confiamos en la IA para tareas mundanas, lo que hace que ciertos trabajos nos resulten casi fáciles. Pero, ¿y si no se trata sólo de correos electrónicos? ¿Y si se trata de documentos corporativos, legales o muy personales? Ahí entonces es cuando se vuelve realmente preocupante.

Es más, algunos usuarios incluso han informado de que utilizan GPT como consejero psicológico. Las estadísticas no mienten, los usuarios de estos modelos tratan a los mismos como asesores todólogos, excepto que este no está sujeto bajo un contrato de confidencialidad tal y como lo sería un abogado, psicólogo, o cualquier profesional que tenga y almacene datos confidenciales.

En la mayoría de los casos, los datos recopilados se venden al mejor postor, que los utiliza a su antojo. La mayoría de ellos son anunciantes, razón por la que hoy en día tenemos anuncios dirigidos. ¿Mostraste interés en comprar algo y unas horas después casualmente ves anuncios sobre ello? Esa es su respuesta.

En el peor de los casos, algo que sucede, y muy a menudo, es que estas bases de datos son infringidas por hackers, y en lugar de vender a los anunciantes, los datos se venden en la DarkWeb, donde cualquiera puede comprarlos, o lo que es peor, se filtran, donde cualquiera puede acceder a ellos.

Entonces, la verdadera preocupación: ¿compensa el precio gratuito con los costes ocultos? No, no lo compensa.

Técnicamente, existe la opción de ejecutar los LLMs localmente, lo que podría reducir, aunque no eliminar del todo, el riesgo de recopilación de datos por parte de granjas de datos chinas. Sin embargo, la realidad es que el usuario medio carece de los conocimientos técnicos necesarios para configurar su propio modelo de IA; y más si es difícil visualizar o sentir los daños que esto nos ocasiona.