LinkedIn está usando tus datos para entrenar a Microsoft, OpenAI y sus propios modelos de IA: aquí te decimos cómo desactivarlo

  • LinkedIn no obtiene consentimiento explícito para entrenar a la IA, por lo que los usuarios deben optar por no hacerlo.

 

Otra importante empresa tecnológica está entrenando modelos de IA con datos de los usuarios (por defecto) y sin informarles primero. Siguiendo los pasos de Meta y Grok de X, LinkedIn está permitiendo que los usuarios entrenen su IA, así como los modelos que pertenecen a “afiliados” anónimos.

 

LinkedIn es propiedad de Microsoft, que también posee una gran parte de OpenAI, el desarrollador de ChatGPT, lo que significa que los tres parecen estar entrenando su IA con información de la red social enfocada en los negocios. LinkedIn no había respondido a las solicitudes de comentarios al momento de la publicación.

 

Según LinkedIn: “Los modelos de inteligencia artificial que LinkedIn utiliza para potenciar las funciones de IA generativa pueden ser entrenados por LinkedIn u otro proveedor. Por ejemplo, algunos de nuestros modelos son proporcionados por el servicio Azure OpenAI de Microsoft.

 

“Cuando LinkedIn entrena modelos de IA generativos, buscamos minimizar los datos personales en los conjuntos de datos utilizados para entrenar los modelos, incluso mediante el uso de tecnologías que mejoran la privacidad para redactar o eliminar datos personales del conjunto de datos de entrenamiento”. La plataforma agregó que no está entrenando “modelos de IA generadores de contenido” con datos de la UE, el EEE o Suiza. El EEE es el Espacio Económico Europeo, que incluye a los 27 miembros de la UE e Islandia, Liechtenstein y Noruega.

 

Si estás en un país en el que LinkedIn ha comenzado a usar tus datos para entrenar a los modelos de IA, es fácil detenerlo. Ve a la sección de privacidad de datos en la configuración y desactiva la opción “Usar mis datos para entrenar a los modelos de IA para la creación de contenido”.

 

Sin embargo, los activistas de la privacidad siguen alarmados por la decisión de LinkedIn de permitir que los usuarios entrenen múltiples modelos de IA. Mariano delli Santi, responsable legal y de políticas de Open Rights Group, una organización sin ánimo de lucro con sede en el Reino Unido dedicada a la defensa de la privacidad, dijo a Forbes: “El modelo de exclusión voluntaria demuestra una vez más ser totalmente inadecuado para proteger nuestros derechos: no se puede esperar que el público controle y persiga a cada una de las empresas en línea que decide utilizar nuestros datos para entrenar a la IA. El consentimiento voluntario no solo es un mandato legal, sino un requisito de sentido común”.

 

Instó al organismo de control de privacidad del Reino Unido a “tomar medidas urgentes contra LinkedIn y otras empresas que creen que están por encima de la ley”.

Fuente: forbes

Compartir
Author

kb4vlpcwk7gw@p3plzcpnl489463.prod.phx3.secureserver.net

No Comments

Leave A Comment