Que si el Papa vestido en Balenciaga o las fotos de Donald Trump encarcelado, estas son algunas de las imágenes creadas por IA en Twitter que se hicieron virales y que confundieron a miles de personas.
Con ese contexto, y luego de que unas imágenes de una supuesta explosión en el Pentágono se hicieran virales, la compañía anunció nuevas medidas que harán más fácil identificar el contenido multimedia generado con inteligencia artificial.
Así se podrán señalar imágenes creadas por IA en Twitter
A través de la cuenta @CommunityNotes, la compañía anunció que están probando “una función que pone un superpoder en manos de los colaboradores: Notas en contenido multimedia”.
Vamos por partes: las Notas de la comunidad son una función que tiene la plataforma donde las personas que son “colaboradores” pueden dejar notas en un tuit para aclarar, contextualizar o añadir o desmentir información.
Si esa nota es calificada como útil por más colaboradores, entonces esa nota se mostrará públicamente a todos los usuarios en la plataforma.
Ahora, con las Notas en contenido multimedia, los colaboradores podrán añadir contexto o aclarar si se trata de un video manipulado o de imágenes creadas por IA en Twitter.
En un comunicado se explica que únicamente las personas colaboradoras con una puntuación de 10 o más tendrá la opción “de escribir notas sobre el contenido multimedia que se encuentra dentro de los Tuits”.
Algo interesante es que Twitter explica que estas notas en contenido multimedia aparecerán en publicaciones “recientes y futuras” que la contengan y no solo en la publicación original.
Por ahora, esta función para identificar imágenes creadas por IA en Twitter está en fase de prueba. Sin embargo, el plan de la compañía es que se pueda ampliar para que colaboradores puedan poner estas notas en tuits con varias imágenes, GIFs y videos.