Italia le cierra las puertas a ChatGPT

Las sospechas sobre el comportamiento ético de herramientas de inteligencia artificial comienzan a hacerse cada vez más habituales. Ahora, Italia acusó al chatbot ChatGPT de recolectar ilícitamente los datos personales de los usuarios, y de no contar con herramientas para verificar la edad de las personas que lo utilizan.

Las autoridades italianas dispusieron el bloqueo «con efecto inmediato» de la herramienta de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores.

El garante italiano para la Protección de Datos Personales aseguró en un comunicado que ha abierto una investigación y que, entretanto, el bloqueo se mantendrá hasta que ChatGPT «no respete la disciplina de la privacidad».

ChatGPT es un sistema de chat basado en el modelo de lenguaje por IA. Es capaz de simular conversaciones humanas, y fue pensado con grandes cantidades de texto para realizar tareas relacionadas con el lenguaje.
No hay base jurídica para recolectar datos

En su disposición, el garante italiano destaca «la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI» pero «sobre todo la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales».

Los italianos lamentan «la ausencia de todo tipo de filtro» en la verificación de la edad de sus usuarios, a pesar de que el servicio esté dirigido a mayores de 13 años. Los niños quedan «expuestos a respuestas absolutamente no idóneas respecto a su nivel de desarrollo y conciencia».

ChatGPT es “sesgado y engañoso”: EU

En EU ChatGPT también levanta sospechas. Una de las organizaciones que el miércoles suscribió un manifiesto para pedir la suspensión temporal de los experimentos con IA muy avanzada, denunció en EU a la tecnológica OpenAI, su desarrolladora, por considerar que su tecnología GPT-4 viola la ley de protección de los consumidores.

El Center for AI and Digital Policy (CAIDP) presentó su demanda ante la Comisión de Comercio Federal (FTC, oficial) de EU en la que alega que el producto GPT-4 es «sesgado, engañoso y supone un riesgo para la privacidad y la seguridad pública», dijo su presidente Marc Rotenberg.

Rotengberg fue una de los empresarios y personalidades que el miércoles firmaron una carta abierta solicitando que se suspendan durante 6 meses los experimentos con IA porque consideran que «pueden plantear profundos riesgos para la sociedad y la humanidad».

Enlace a la fuente