Recientemente, el subreddit de stablediffusion se ha puesto interesante ya que alcanzan cotas de fotorealismo muy altas, incluso ellos mismos abren encuestas y debates porque no son capaces de diferenciar cual de los resultados les "parece más realista".
Unos ejemplos recientes |
Este ave no posó en la naturaleza, si no en una 4090RTX |
Lo curioso fue hace unos días, un usuario del subreddit logró crear una identidad completamente ficticia desde cero utilizando modelos y LORAs de StableDiffusion para la generación de imágenes de IA, junto con algunas habilidades de Photoshop. Esta identidad falsa fue presentada sosteniendo un documento de identificación (similar al DNI), una prueba comúnmente requerida para verificar identidades en webs online como bancos y similar. Este incidente destaca una creciente preocupación: la facilidad con la que la tecnología actual puede ser utilizada para crear este tipo de engaños convincentes.
Esta persona no existe |
La capacidad de generar imágenes realistas de personas inexistentes plantea serios desafíos para la seguridad y la verificación en línea. El usuario en cuestión, con un poco de photoshop extra, también pudo hacer a la persona sosteniendo el "típico papel con el nombre de usuario" para verificarse en foros o incluso un pasaporte. Principalmente preocupante estas imágenes con documentos de identificación alterados, el riesgo de fraude y usurpación de identidad aumenta significativamente. Esto no solo es un problema para individuos, sino también para organizaciones que dependen de la verificación de identidad para operaciones seguras.
Creo que aquí es donde servicios como TimeEvidence con Proof of live deben desempeñan un papel crucial en la autenticación y verificación de identidades.
TimeEvidence utiliza el hash del último bloque descubierto en ethereum para crear una firma de colores que garantiza que el momento en que se fotografían esos colores es en directo. si lo sumamos a que justo luego envías/subes esa foto con el timeevidence en ella, la ventana de tiempo que hay disponible para manipulaciones o alteraciones como las realizadas en Photoshop o arreglos de artefactos de IA es casi nula.
Incluso he visto una opción en la que rota de forma aleatoria el cuadro de colores y se solicita que el usuario los mantenga verticales. Al requerir que el usuario gire su teléfono o cambie su postura, complica aún más la tarea de falsificar una identidad mediante el uso de imágenes estáticas generadas por IA.
0 valientes comentaron :
Publicar un comentario