Tecnología

Uso de IA en empresas preocupa por posibles pérdidas económicas

Según los empleados encuestados, cerca de la mitad de las empresas no tiene ninguna normativa interna relativa al uso de ChatGPT

Inteligencia Artificial
Uso de IA en empresas preocupa por posibles pérdidas económicas

El uso de sistemas de Inteligencia Artificial generativa, como ChatGPT, preocupa a los altos cargos de las empresas por los riesgos que supone, sobre todo por la posible pérdida de información confidencial y el control comercial, y ello pese a los planes de implementación y los empleados que ya la utilizan en un contexto donde no siempre hay normas al respecto.

La IA generativa se ha convertido en una herramienta útil para las empresas, que permite automatizar procesos y realizar un amplio abanico de tareas, pero la alta dirección desconfía por los riesgos de seguridad que puede implicar para el negocio.

Te recomendamos: TikTok es el buscador preferido por la Generación Z por encima de Google

Así lo recoge un informe de seguridad informática que señala que del total de los encuestados, solo el 19% ha debatido la imposición de reglas para controlar el uso de la IA generativa.

El 96% cree que sus empleados utilizan regularmente este tipo de sistemas, lo que lleva a que para ellos sea necesario (95%) conocer el uso que los empleados hace de la IA generativa para estar protegidos frente a riesgos de seguridad críticos o fugas de datos.

Otro tanto teme pérdidas económicas en las organizaciones. El estudio revela que entre los usuarios empresariales de la IA generativa no sabe lo que pasa con los datos que introduce en la herramienta.

Este dato refleja la importancia de una conciencia y regulación por parte de las empresas para mantener segura su información, ya que, como recuerdan desde la firma de ciberseguridad, ChatGPT puede almacenar información como la dirección IP, el tipo de navegador y la configuración del usuario, así como datos sobre las funciones más utilizadas.

Sin embargo, según los empleados encuestados, cerca de la mitad (45,5%) de las empresas no tiene ninguna normativa interna relativa al uso de ChatGPT.

En el caso de las que sí la han implementado, el 19% dice que no son suficientemente claras, un siete por ciento señala que las normas son claras, pero no se cumplen. Solo un 27% afirma que son claras y que se cumplen.

Los riesgos ChatGPT

ChatGPT asegura que no comparte la información facilitada por el usuario con terceros. Solo la retiene para mejorar la plataforma y proporcionar respuestas lo más precisas posibles, usando los datos recopilados para mejorar el modelo de lenguaje y afinar al máximo la experiencia del usuario.

Sin embargo, hay que tener en cuenta que la política de privacidad de ChatGPT se refiere únicamente al uso de los datos de los usuarios registrados en dicha plataforma, pero no especifica nada sobre el uso de datos personales que puede hacer la IA de otras fuentes, como las que usa para generar los textos que devuelve

—  explica el Senior Security Researcher de Kaspersky, Marc Rivero

Por otra parte, los ciberestafadores ya utilizan la herramienta para generar código malicioso o estafas de ‘phishing’ lo más creíbles posibles.

Por ello, los expertos de Kaspersky aconsejan evitar introducir información delicada y datos confidenciales, tanto personales como corporativos, que puedan ser susceptibles de caer en manos de ciberdelincuentes.

En el caso de las empresas, consideran importante que creen normas internas que regulen el uso de ChatGPT y concientizen a los empleados sobre la importancia de no compartir ciertos datos, educando al empleado en ciberseguridad.

DV Player placeholder

Tags


Lo Último