LOS PELIGROS INVISIBLES DE LA INTELIGENCIA ARTIFICIAL

Recientemente, Meta anuncio el lanzamiento de nuevas experiencias con IA (inteligencia artificial) para sus plataformas, apps y dispositivos. Una de estas herramientas es Meta AI, un “asistente virtual” con el que puedes interactuar para resolver dudas. Sin embargo, con la intención de generar una interacción más dinámica y que los usuarios sientan que están hablando con alguien conocido, se dio a conocer la lista de los alter ego de algunas figuras públicas, iconos culturales y creadores de contenido, que formarán parte de estos personajes virtuales.

El extraño mundo de los bots pseudocelebridades

Los personajes de IA de esta lista tienen el mismo físico y voz de la figura pública en cuestión, la diferencia es que cuentan con otro nombre y otra profesión. Por ejemplo: la modelo Kendall Jenner es Billie, ride or die companion (lo que podría traducirse como “tu confidente”); la tenista Naomi Osaka es Tamika, un chatbot obsesionado con el anime; la socialité Paris Hilton es Amber, una detective; el rapero Snoop Dog es Dungeon Master, un guía experto en el juego homónimo; y el ex jugador de fútbol americano Tom Brady es Bru, un comentarista deportivo.

Estas son algunas de las personalidades que pertenecen a los chatbots de Meta, con cuentas de Instagram y Facebook, que por ahora solo están disponibles en Estados Unidos. Al parecer, Meta habría pagado hasta cinco millones de dólares a alguna de estas celebridades por tan solo seis horas de trabajo para la creación de su personaje y así poder utilizar su imagen, su voz y manejar las redes de su alter ego.

¿Cuáles son los límites del uso de la IA?

Como si fuera un capítulo de Black Mirror, el actor Tom Hanks, denunció a través de redes sociales que una compañía de seguro dental utilizo su imagen con IA sin su consentimiento. Recordemos el capítulo estreno de la sexta temporada de esta serie antológica británica, en el que una mujer descubre que su vida está siendo proyectada en una plataforma de streaming creando fatales consecuencias; al querer presentar una demanda, se da cuenta que al aceptar los términos y condiciones de la suscripción de la plataforma (que seamos sinceros, muy pocas personas verdaderamente le prestan atención) ha cedido los derechos de su imagen.

A pesar de que la inteligencia artificial ha otorgado una amplia gama de herramientas esta revolución tecnológica también plantea importantes dilemas éticos y legales.

Uno de los peligros más apremiantes es la pérdida de los derechos de nuestra propia imagen. A medida que la IA avanza, es cada vez más difícil distinguir entre lo real y lo sintético. Se pueden crear imágenes y videos realistas que parecen representarnos, pero que en realidad son producto de la imaginación de una máquina. Esto puede dar lugar a situaciones donde nuestra imagen se utilice sin nuestro consentimiento para propósitos inapropiados, como la difamación, la suplantación de identidad o la creación de contenido engañoso.

Además, la falta de regulación en este ámbito crea un vacío legal que dificulta la protección de nuestros derechos. La legislación actual en muchos países no está preparada para abordar estos desafíos, lo que deja a las personas en una situación vulnerable ante el mal uso de la IA.

La alteración de imágenes y el caso del IPN

Hace una semana, se dio a conocer uno de los casos más graves de pornografía ilegal en México. Diego “N”, estudiante de la Escuela Superior de Comercio y Administración de la Unidad Santo Tomás del Instituto Politécnico Nacional, fue denunciado formalmente por más de ocho compañeras por poseer en su IPad más de 20,000 fotografías y videos de compañeras sin su consentimiento. Vendía y compartía estas fotografías por medio de la plataforma de mensajería Telegram. Algunas las obtuvo ilegalmente y otras de redes sociales alterando las imágenes para crear desnudos a través de la IA.

La Fiscalía de la Ciudad de México abrió una carpeta de investigación por violencia digital mientras que la Policía Cibernética realiza una investigación de las imágenes. Así mismo se espera que la Fiscalía de Investigación de Delitos Sexuales otorgue protección y atención psicológica a las alumnas afectadas, las cuales rondan entre los 17 y 25 años de edad.

Foto por Cuartoscuro.

El fenómeno y proliferación de deepfakes, en el que la IA puede generar imágenes y videos pornográficos que parecen representar a individuos reales, no solo provoca difamación y acoso cibernético sino hasta la suplantación de identidad. Las leyes y regulaciones deben establecer límites claros y sanciones para aquellos que abusan de la IA de esta manera, así como desarrollar sistemas de verificación de la autenticidad de las imágenes y videos en línea para ayudar a prevenir el abuso de la tecnología.

***

La conciencia pública sobre el problema que surge del uso excesivo de la IA es fundamental. Las personas deben comprender los riesgos asociados con la pérdida de control sobre su imagen y su identidad. La educación y la promoción de la seguridad en línea son cruciales para informar a las personas a tomar medidas para proteger sus derechos.

En última instancia, la lucha contra la alteración de imágenes de índole sexual por inteligencia artificial requiere un enfoque multidisciplinario que involucre a gobiernos, empresas tecnológicas, organizaciones de derechos civiles y a la sociedad en su conjunto. La protección de la privacidad, la dignidad y la seguridad de las personas es una responsabilidad compartida que debe ser prioridad en la era digital.


  • TEXTO: Erika Malo

Fecha de Publicación:
Sábado 21/10 2023