La creciente preocupación por los deepfakes explícitos no consentidos, especialmente tras la viralización de imágenes falsas de Taylor Swift en enero, ha impulsado a empresas tecnológicas como Google a tomar medidas. Estos deepfakes, que son uno de los problemas más graves derivados de la inteligencia artificial (IA), han generado un aumento en la presión tanto de legisladores como de consumidores para que se tomen acciones concretas.
Recientemente, Google anunció que facilitará a las víctimas la eliminación de imágenes falsas explícitas de sus resultados de búsqueda, reducirá la clasificación de contenido explícito falso, y filtrará estos resultados para evitar su reaparición. Esta medida ha sido vista como un paso positivo, ya que disminuye la visibilidad de estos contenidos dañinos.
A pesar de estos avances, aún queda mucho por hacer. Aunque se han propuesto diversas estrategias, como la regulación, las marcas de agua para detectar contenido generado por IA, y medidas de protección para dificultar el uso indebido de imágenes, solo la regulación ha mostrado algún progreso. Por ejemplo, el Reino Unido ha prohibido la creación y distribución de deepfakes explícitos no consentidos, lo que ha llevado a ciertos sitios web a restringir su acceso en ese país. Además, la Ley de Inteligencia Artificial de la UE y la Ley Defiance del Senado de EE.UU. buscan aumentar la transparencia y ofrecer recursos legales a las víctimas.
Sin embargo, expertos como Henry Ajder señalan que Google podría ir más allá, comparando la situación con la lucha contra la pornografía infantil en internet. También subraya la necesidad de que las plataformas tomen medidas más drásticas y que se revise cómo se perciben y tratan los deepfakes no consentidos, ya que el problema sigue siendo grave y requiere acciones más contundentes.
© MIT Technology Review, agosto 2024.