Logo de BBVA en una de sus oficinas.
Logo de BBVA en una de sus oficinas.

Las empresas españolas BBVA y Red Eléctrica han impuesto restricciones en el uso de la herramienta de inteligencia artificial (IA) ChatGPT, según un video publicado por RTVE. La medida se ha tomado para evitar posibles filtraciones de datos, ciberataques y la difusión de información incorrecta que podría afectar la credibilidad, reputación y causar problemas legales.

BBVA y Red Eléctrica toman medidas preventivas

BBVA ha prohibido a sus empleados el uso libre de ChatGPT, permitiendo su uso discrecional con cuentas corporativas solo en casos específicos donde se ve utilidad y no se presenta riesgo. De manera similar, Red Eléctrica también ha prohibido su uso por parte de los empleados para evitar fugas de datos y está trabajando en una regulación interna de las pautas de uso.

El equilibrio entre seguridad y potencial

Sin embargo, los expertos advierten que restringir demasiado el uso de esta herramienta puede privar a las empresas de su gran potencial. La inteligencia artificial, y en particular las tecnologías de procesamiento de lenguaje natural como ChatGPT, tienen el potencial de mejorar la eficiencia y la productividad en una variedad de aplicaciones empresariales. Estas pueden incluir la automatización de tareas de servicio al cliente, la generación de informes y análisis, y la asistencia en la toma de decisiones basada en datos.

Investigación de la Agencia Española de Protección de Datos

La Agencia Española de Protección de Datos (AEPD) también ha iniciado una investigación preliminar sobre el posible incumplimiento de la normativa de protección de datos por parte de ChatGPT, una tecnología desarrollada por la empresa estadounidense OpenAI. Esta investigación se suma a un escrutinio global creciente de los sistemas de inteligencia artificial y su cumplimiento con las normativas de privacidad y protección de datos.


Libro recomendado sobre inteligencia artificial:

Cómo Ganar Dinero por Internet con Inteligencia Artificial