Opinión en Galicia

Buscador


autor opinión

Editorial

Ver todos los editoriales »

Archivo

El uso de la IA sin supervisión se expande a los entornos profesionales

Pintos y Salgado Abogados - viernes, 09 de mayo de 2025
- Desde el bufete especializado en Derecho Digital, Pintos & Salgado, ahondan en una tendencia que afecta a la forma en que nos relacionamos con la tecnología: un 77 % de los usuarios mundiales introducen la IA generativa en su trabajo sin ningún tipo de supervisión.

- Víctor Salgado, abogado y socio-director del despacho: "empresas y administración pública se sienten impelidas a incorporar estas herramientas, pero lo están haciendo sin reflexión ni protocolos de seguridad. Solo por la presión de innovar cuanto antes y no perder en competitividad".


Los potenciales usos de la inteligencia artificial (IA) crecen semana tras semana. Sus capacidades de análisis de macrodatos y de generación de contenidos multiformato, El uso de la IA sin supervisión se expande a los entornos profesionales desde vídeos a textos, imágenes o incluso propuestas de sitios web, las hace cada vez más atractivas para las organizaciones en particular y, sobre todo, para el día a día de los trabajadores.

Pero la incorporación de la IA en entornos laborales ya está generando algunas polémicas, y más después de los datos que arroja el último estudio hecho por la compañía Microsoft en 31 países, bajo el análisis de 31.000 encuestas y en colaboración con LinkedIn: el 77 % de los usuarios profesionales mundiales introducen la IA generativa -aquella enfocada en crear contenido nuevo a partir de datos o información ya existente- sin ningún tipo de supervisión. Con las consecuencias que conlleva en materia de ciberseguridad e higiene digital.

Desde A Coruña, el bufete de abogados Pintos & Salgado somete esta tendencia global bajo análisis: ¿qué riesgos entraña y qué está pasando en la cultura organizativa actual para que suceda algo así?

Víctor Salgado, abogado especialista en Derecho Digital y socio-director del despacho, contextualiza la dinámica: "Vivimos en una vorágine en donde lo urgente es incorporar tecnologías de IA a toda costa. Todas las organizaciones, desde empresas privadas a administraciones públicas, se sienten impelidas a incorporar herramientas de este tipo sin protocolos ni reflexión; sin ser plenamente conscientes de sus riesgos y obligaciones legales. Es como si hubiera un miedo a quedarse atrás si no lo hacen".

"En nuestra experiencia", continúa Salgado, "detectamos que muchas empresas hacen uso de la IA sin supervisión de los cargos directivos. Pero es fundamental recordar que lo que se haga dentro de una organización es responsabilidad de esa misma empresa, y esto afecta a toda su estructura. Debe haber un cumplimiento normativo porque las responsabilidades legales y los costes económicos serán organizacionales".

Para el abogado coruñés, el primer paso se fundamenta en saber qué usos de la IA se están ejecutando dentro de la organización. "Es necesario conocer en qué tareas se utiliza, qué contenidos está generando y con qué información está ya tratando. A partir de ahí, se debe iniciar su regularización: determinar reglas estrictas internas para todos los trabajadores que estén revisadas y adecuadas a la ley, tanto en la normativa de protección de datos como el Reglamento de IA o la Ley de Propiedad Intelectual, entre otras".

Los riesgos de entrenamiento, la gran amenaza en ciberseguridad
Si se le pregunta a Víctor Salgado por el principal riesgo en materia de seguridad digital, lo tiene claro: "los riesgos de entrenamiento de estas herramientas son altísimos. Cuando introducimos consultas, datos o documentación en estas inteligencias artificiales debemos asumir que todo ese contenido va a ser utilizado para entrenar a la propia IA. Da igual si es ChatGPT, Copilot, Google Gemini... Si compartimos información sensible, hay que asumir que va a formar parte del sistema y que podrá incluso ser objeto de extracción por terceros".

Ese riesgo de entrenamiento anticipa que cualquier dato volcado podrá ser usado por la plataforma, también los secretos de empresa, y estará dentro de su estructura informativa en la nube. "Solo si utilizamos una IA de software libre instalada enteramente en nuestros equipos garantizamos que la información esté cien por cien bajo nuestro control; no saldría del ordenador", expone Salgado.

Una clave organizativa: los códigos de reglamento de uso
La clave de esta tendencia pasa por entender la relevancia de los protocolos internos de las organizaciones. "Es lícito querer utilizar y exprimir al máximo la inteligencia artificial: es una de las tecnologías más potentes que ha desarrollado la humanidad, pero debemos aprender a utilizarla adecuadamente de cara a evitar males mayores", expone Víctor Salgado.

Para eso mismo se diseñan los códigos internos de reglamento de uso, entendidos como documentos que racionalizan los procesos de trabajo y, sobre todo, informan y forman al personal, de tal manera que se sepa siempre lo que se puede y no se puede hacer dentro de su rutina laboral.

Con todo, desde el despacho especializado en Derecho Digital también divulgan las principales buenas prácticas en el uso de una IA de forma profesional:

1. Tomar consciencia de qué herramienta se está utilizando, y eso implica conocer cuáles son sus términos de uso, qué condiciones se aceptan y cómo se gestionan los datos (hacia dónde se dirigen y qué tratamiento se les dará).

2. Evitar introducir datos de carácter personal, sobre todo los que son de terceras personas. Si se introducen datos propios, los mínimos posibles, y siempre asumiendo lo que implica compartir esa información (puede ser tratada para campañas de marketing, análisis y prospección...).

3. No volcar contenidos de propiedad intelectual de terceros sin autorización o base legal.

4. Abstenerse de incluir secretos o información delicada de la empresa o de sus clientes: marcas, patentes, diagramas, artículos de investigación... todo dato de carácter confidencial que se maneje.

Y a todo esto le suma Víctor Salgado una última cuestión. "La IA entraña también otro riesgo importante, y es que 'alucina'. Tendemos a fiarnos de sus contenidos, de la información que nos da, por la facilidad con la que los genera. Pero siempre debemos contrastar lo que dice con fuentes externas a la herramienta".

"Todas las inteligencias artificiales", concluye Salgado, "nos obligan a pensar la relación entre las organizaciones y la tecnología. Y si queremos hacer un buen uso de ellas, con todos sus enormes beneficios, tenemos que revisar y regular los nuevos procesos de trabajo que se están desarrollando en pequeñas, medianas y grandes estructuras laborales".
Pintos y Salgado Abogados
Pintos y Salgado Abogados


Las opiniones expresadas en este documento son de exclusiva responsabilidad de los autores y no reflejan, necesariamente, los puntos de vista de la empresa editora


ACTUALIDAD GALICIADIGITAL
Blog de GaliciaDigital
PUBLICIDAD
HOMENAXES EGERIA
PUBLICACIONES