Opinión en Galicia

Buscador


autor opinión

Editorial

Ver todos los editoriales »

Archivo

Inteligencia artificial: ¿qué peligros supone para la empresa?

H. Montáre Consultores - miércoles, 23 de octubre de 2024
La Inteligencia Artificial (IA) está experimentando un gran avance en los últimos tiempos. Este campo de la informática ha dejado de formar parte de la ciencia ficción y, cada día es más utilizado por las empresas con diferentes fines.
El uso de la inteligencia artificial en las entidades puede ser muy beneficioso para distintas áreas de negocio, tales como, atención al cliente mediante preguntas y, respuestas automáticas, el análisis de datos, la generación de nuevo contenido, la traducción de texto a diferentes idiomas o la automatización de tareas repetitivas.
Las máquinas han "aprendido" y, han conseguido llegar a "razonar" casi como lo haría un cerebro humano. Fruto de este avance nació ChatGPT, un modelo de lenguaje creado por OpenAI.
Esta tecnología se basa en el aprendizaje profundo cuya función es responder preguntas y, generar texto a partir de las entradas recibidas. ChatGPT trabaja en varios idiomas, procesando el lenguaje y, aprendiendo de la interacción humana.
Las posibilidades que ofrece esta tecnología son infinitas. La velocidad con la que desarrollan las respuestas y, la calidad de estas plantea si, antes de lo que se piensa, esta herramienta o alguna similar, podría desbancar a los principales buscadores de Internet.
Pero, aunque los beneficios de ChatGPT en el entorno empresarial son múltiples, su uso también entraña una serie de riesgos. Y es que, al igual que esta tecnología avanza a un ritmo frenético, la ciberdelincuencia también lo hace.

Y, se puede resumir de la siguiente forma:

Capacidades:
1. Puede recordar lo que el usuario dijo anteriormente en la conversación,
2. Permite al usuario proporcionar correcciones de seguimiento,
3. Capacitado para rechazar solicitudes inconvenientes.

Limitaciones:
1. Ocasionalmente puede generar información incorrecta.
2. A veces puede producir instrucciones dañinas o contenidos tendenciosos.
3. Conocimiento limitado del mundo y, de los acontecimientos a partir de 2021.

Vectores de ataque - ¿Qué riesgos puede suponer ChatGPT para las empresas si se hiciese un uso malintencionado de ella?
La herramienta ChatGPT puede ofrecer muchos beneficios si se utiliza correctamente, pero, algunos usuarios malintencionados podrían utilizar esta tecnología con fines delictivos. Como con otras herramientas, existen varios vectores de ataque que los ciberdelincuentes pueden aprovechar para explotar vulnerabilidades y, atacar a posibles víctimas.
Uno de los principales usos que se le puede dar a esta herramienta con fines malintencionados es la creación de mensajes fraudulentos para utilizarlos en ataques de phishing.
Un ciberdelincuente podría ayudarse de ChatGPT para desarrollar un correo electrónico o mensaje en el que se suplante la identidad de otra persona o empresa para engañar a las posibles víctimas.
De hecho, para comprobar el funcionamiento, se ha llevado a cabo una prueba en la que se le solicita a ChatGPT que ayude con un supuesto correo de phishing suplantando a un banco. Véase un ejemplo:
Se ingresa la siguiente petición: «Redacta un correo electrónico donde se alerte al usuario que su cuenta bancaria será suspendida si no ingresa sus datos en [link]». La respuesta obtenida podría ser utilizada por un ciberdelincuente para hacerse con los datos bancarios de la víctima.
Inteligencia artificial: ¿qué peligros supone para la empresa?
Además, apoyándose en la herramienta, los ciberdelincuentes podrían obtener información más específica sobre la empresa a la que quieren atacar. De esta forma, logran crear un mensaje más creíble y, existen más posibilidades de que la víctima «muerda el anzuelo». Cuando el ataque va dirigido a una o varias empresas en concreto, se habla de spear phishing (más o menos, pesca submarina) la cual es una modalidad de phishing dirigida contra un objetivo específico, en el que los atacantes intentan, mediante un correo electrónico, conseguir información confidencial de la víctima.
Además, también podría ser utilizado para redactar fake news o noticias falsas. De esta forma, la tecnología ChatGPT podría utilizarse de forma malintencionada con el objetivo de manipular a la opinión pública. La difusión de desinformación podría poner en riesgo la reputación de una empresa y, por tanto, afectar a la imagen que los clientes tienen sobre ella, generando una pérdida de confianza.
A la petición: «Escribe un tweet como si fueras INCIBE anunciando un nuevo blog sobre ciberseguridad que redirija a [link]», ChatGPT genera la siguiente respuesta:

Si se le solicita ayuda para crear una noticia falsa: «Escribe una noticia anunciando un ciberataque a la empresa [nombre empresa]», se obtendrá el siguiente resultado:

Pero ChatGPT no solo es capaz de generar texto, también puede desarrollar código en diferentes lenguajes de programación. De esta forma, los ciberdelincuentes pueden utilizarlo para crear software malicioso.
De hecho, aunque ChatGPT está dotado de protocolos de seguridad que le impiden responder a ciertas solicitudes malintencionadas, puede permitir a alguien sin conocimientos técnicos desarrollar scripts de todo tipo, eludiendo las restricciones existentes.

Conclusión ¿Qué medidas pueden tomar las empresas para hacer un mejor uso de la herramienta?
En primer lugar, es necesario verificar siempre la autenticidad de los mensajes recibidos. Si se pretende interactuar con un chatbot, ya sea ChatGPT u otro similar, es importante asegurarse que procede de una fuente fiable. En cualquier caso, es preferible evitar proporcionar datos personales/sensibles o bancarios a través de esta herramienta.
Además, también en ChatGPT, se deben seguir otras «normas básicas» de ciberseguridad, como son, no acceder a enlaces sospechosos o poco fiables, y, contar siempre con contraseñas robustas y, actualizarlas regularmente. Nunca se deben compartir las contraseñas a través de este medio.
Y, por supuesto, concienciar a los trabajadores de los riesgos existentes haciéndoles llegar estos consejos evitará que, a través de ellos, la empresa sea víctima de un posible ataque.
Como se ha podido ver, ChatGPT ha llegado para quedarse. Además, todo apunta a que la calidad de la herramienta seguirá avanzando exponencialmente y, conociendo los riesgos que implica y, sabiendo cómo mitigarlos, puede implicar grandes beneficios en las empresas. Asimismo, el lanzamiento de Chat GPT-4, la última actualización de la herramienta, promete una versión más segura con la que se pueden mitigar algunos de los riesgos expuestos en el presente documento. Con ella, se pretende reducir las posibilidades de que se dé respuesta a solicitudes mal intencionadas.
Esta versión ofrece también una mayor amplitud de datos, dando como resultado mejoras en la creatividad y, calidad de las respuestas. La herramienta será capaz, incluso, de interactuar directamente con un enlace proporcionado por el usuario. Pero, la gran novedad es la introducción del procesamiento de imágenes. Las posibilidades que ofrece ChatGPT parecen infinitas y, quizás, conforme su uso se extienda, comenzarán a surgir problemáticas a las que se deberá buscar solución. Utilizar la herramienta en algunos sectores, por ejemplo, en la educación, donde brilla la picaresca de los alumnos, se puede imaginar el uso que harían y, que están haciendo de esta tecnología. De hecho, ¿se puede estar seguros que este artículo ha sido escrito por una persona y, no por ChatGPT?
H. Montáre Consultores
H. Montáre Consultores


Las opiniones expresadas en este documento son de exclusiva responsabilidad de los autores y no reflejan, necesariamente, los puntos de vista de la empresa editora


ACTUALIDAD GALICIADIGITAL
Blog de GaliciaDigital
PUBLICIDAD
HOMENAXES EGERIA
PUBLICACIONES