Icono del sitio La Hora de Salta

Advierten sobre las consecuencias de exponer imágenes al estilo de Studio Ghibli

La última actualización del chatbot de ChatGPT ha permitido a las personas que lo utilizan replicar el inconfundible estilo artístico del cocreador del estudio de animación y legendario cineasta japonés Hayao Miyazaki. Esta nueva funcionalidad se ha viralizado rápidamente en redes sociales, con miles de personas compartiendo sus imágenes generadas al estilo de Studio Ghibli. Sin embargo, se ha demostrado en distintas ocasiones, sumarse a una tendencia por mera diversión, puede desencadenar fraudes o suplantación de identidad si la tecnología se ve comprometida o simplemente si para usarla se aceptan condiciones de privacidad desfavorables, o que pueden estar en contra de las regulaciones locales o internacionales.

Un ejemplo de esto es el caso de Clearview AI que funcionaba desde 2020 como un motor de búsquedas similar a Google, pero de rostros. Debido a que recolectaba la información de fuentes públicas como redes sociales, revistas digitales o blogs, tuvo en 2022 una disputa con la Unión Americana de Libertades Civiles para que restringa las ventas del software en el mercado estadounidense de servicios de reconocimiento facial a entidades gubernamentales. Este tipo de controversias continúa y la empresa sigue operando, no exenta de disputas y reclamos legales, y pago de multas en distintos países.

Por otro lado, la empresa australiana Outabox, en mayo de 2024 sufrió una filtración que expuso datos de reconocimiento facial y biometría de sus sistemas, que se utilizaban en bares y clubes de Australia. Personas que afirmaron ser antiguos desarrolladores de Outabox crearon un sitio web donde confirmaban tener datos biométricos de reconocimiento facial, escaneo de licencia de conducir, firma, datos de membresía de clubes, dirección, fecha de nacimiento, número de teléfono, marcas de tiempo de visitas a clubes y uso de máquinas tragamonedas. Las investigaciones demostraron que los datos se recopilaron de 19 establecimientos en Nueva Gales del Sur y el Territorio de la Capital Australiana, operados por ClubsNSW que había contratado a Outabox.

“Como analizamos recientemente desde ESET, entre los principales desafíos que impone la Inteligencia Artificial Generativa, la moderación del contenido y los derechos de autor son dos puntos que toman fuerza por esta tendencia y requieren de la atención tanto de gobiernos, empresas y usuarios. El funcionamiento de los modelos de IA depende mayoritariamente del acceso a grandes volúmenes de datos (con los que se entrenan y de los cuales se sirven), muchos de estos contienen información personal, sensible y confidencial. Las diversas fuentes para recolectar información y así entrenar a los modelos de IA pueden provenir de información pública o de fuentes abiertas, información solicitada a los usuarios (quienes la consienten, como lo es en este caso con la tendencia de las imágenes generadas al estilo Studio Ghibli) y también de redes sociales y, más recientemente, de información recopilada por dispositivos IoT.”, explica David Gonzales, Investigador de Seguridad Informática de ESET Latinoamérica.

Dada la gran cantidad de datos que se procesan, se destaca la importancia de que los mismos sean tratados y almacenados de forma segura, ya que pueden quedar expuestos y sujetos a posibles accesos indebidos, filtraciones o incluso robos de información como en el caso de Outabox. Esto puede traer como consecuencia que los ciberdelincuentes puedan suplantar de forma fácil la identidad de los vulnerados o generar estafas con identidades reales, ampliando la superficie de ataque y exposición.

Otro desafío recae en la recolección masiva de datos sin el consentimiento informado de los usuarios, quienes muchas veces desconocen el alcance del uso de su información. Ese desconocimiento implica un vicio del consentimiento (a nivel legal) y, por tanto, dichas recopilaciones se tornan grises.

La falta de transparencia y explicabilidad sobre cómo funcionan los modelos y cómo tratan la información genera también conflictos legales. Aquí es donde se puede tornar una línea delgada entre lo privado y lo invasivo; algunas empresas directamente advierten que los datos serán usados para mejorar el modelo de entrenamiento de su Inteligencia Artificial, con el fin de presentar un producto o servicio de mayor calidad.

Unirse a esta tendencia además del entusiasmo puede traer riesgos de la privacidad si no se toman las debidas precauciones.

Algunos los puntos más importantes a considerar para minimizar los riesgos:

ESET

Salir de la versión móvil