La multinacional tecnológica Sony ha querido dar un salto cualitativo e integrar dentro de sus nuevos modelos la posibilidad de firma digital. De esta forma se buscaría luchar con la amenaza que están suponiendo las fotos falsas que ya circulan por internet.
El rápido avance de la tecnología de IA generativa ha comenzado a ser un problema para los medios de comunicación. Gracias a determinados programas informáticos, que no requieren de demasiados conocimientos previos, es posible generar imágenes de alta calidad que a simple vista engañarían al ojo humano.
Es por eso que Sony está buscando formas de edición que de forma simple y clara nos puedan demostrar que la instantánea que vemos realmente es una foto tomada al natural. La manera en que ha querido hacerlo es integrando una marca de autenticidad de forma automática cada vez que se capture una imagen.
“La tecnología de autenticidad de Sony proporciona una firma digital creada en la propia cámara, lo que elimina la posibilidad de manipulaciones no detectadas desde el principio”
Se espera por tanto que, mientras que la tecnología IA sigue su curso, el mundo de la fotografía pueda defender su terreno y su valía como medio de comunicación masivo.
Trabajo conjunto entre Sony y Associated Press
Aunque la iniciativa de la firma digital integrada en la image se la debemos a Leica, la cual introdujo la certificación Content Credentials en su modelo M 11-P, el gran salto adelante lo protagonizan sin duda Sony.
Esto se debe a que la firma japonesa tiene un acuerdo de colaboración con la agencia Associated Press desde 2020, a través del cual todos los reporteros de AP emplearán exclusivamente cámaras Sony.
Los próximos modelos Sony A9 III, Sony A1 y Sony A7S III serán los que cuenten con un sistema de certificación propio, desarrollado de la mano de los creadores de Photo Mecanic, Camera Bits.
La IA se convierte en una amenaza, pero hay formas de desenmascararla
Hace pocas semanas hubo una imagen que dio la vuelta al mundo por ser muy impactante a nivel visual. Se trataba de un supuesto padre palestino corriendo entre los escombros con sus hijos tras un bombardeo israelí. Dicha imagen, que en principio parecía real, terminó siendo un absoluto fake.
De forma rudimentaria, un análisis visual de la foto permitió detectar ciertas anomalías a la hora de presentar las extremidades de los personajes. Al parecer, las manos y los dientes son elementos que (de momento) la IA no logra cubrir con realismo, por lo que ofrece una pista clara de si estamos o no ante una foto falsa.
Al margen del examen visual, ya se han puesto en marcha determinados programas informáticos como AI or Not o Hive, en donde se nos ofrece un porcentaje determinado de posibilidades de que una imagen termine siendo falsa o no.
Los riesgos de la IA encuentran su caldo de cultivo perfecto en RRSS
Otro caso sonado de manipulación mediante IA fueron unas fotos que se difundieron sobre el supuesto arresto de Donald Trump. Aunque no tardó en desmentirse, las imágenes habían logrado dar la vuelta al mundo en cuestión de minutos. Esto no hubiera sido posible de no ser por el papel que jugaron las redes sociales.
Aunque en ocasiones los medios de comunicación ordinarios han caído en las trampas de una noticia fake o un bulo, lo cierto es que antes de crear la noticia suele contrastarse con las fuentes.
Además, determinadas agencias como Associated Press (la que ha trabajado con Sony en este cometido) o Europa Press se encargan de canalizar tanto la información como las imágenes de forma ordenada y conjunta.
El amparo legal ante las situaciones de deepfake
Al margen de los montajes que hemos podido mencionar, una amenaza real que se ha instalado en círculos más domésticos ha sido el de los llamados deepfakes. Se trata de modificaciones que también se realizan por IA y en donde lo que se hace es plasmar la cara y los rasgos de una persona en otro cuerpo. A priori es fácil saber que se trata de una foto o video falsos, sin embargo su uso puede ser vejatorio, especialmente si se emplean imágenes pornográficas.
En los países suele existir una normativa que se dedica a la protección de nuestra imagen. En España, contamos con la la Ley Orgánica 1/1982, de 5 de mayo, de Protección Civil del Derecho al Honor, a la Intimidad Personal y Familiar y a la Propia Imagen. A nivel europeo, la propia Carta de los Derechos Fundamentales de la Unión Europea, en el título III, artículo 7, reza lo siguiente:
“Toda persona tiene derecho al respeto de su vida privada y familiar, de su domicilio y de sus comunicaciones.”
Por lo tanto, ante una situación de deepfake un potencial denunciante podría encontrar fácilmente amparo ante los tribunales.