Reconocen a héroes contra la corrupción en el Edomex
TOLUCA, Edomex., 10 de junio de 2024.- Se estima que hasta el 20 por ciento de los denominados DeepFakes, imágenes de personas creadas por la Inteligencia Artificial, son imposibles de identificar. La mayoría de estas reproducciones, supuestamente de la realidad, contienen contenido relacionado con violencia sexual, según alertó el doctor Jordi Nieva Fiñón, Catedrático de Derecho Procesal de la Universidad de Barcelona.
De acuerdo con el especialista, estos videos o imágenes, incluso audios generados por software de IA, reproducen fielmente su traducción al español, pues son falsedades profundas, tan semejantes al original, auténtico o real que pueden engañar o violentar a una persona.
Expone que ahí está el riesgo en esta realidad alterna, al advertir que puede “no haber forma humana” de discernir lo que es real de lo que es falso.
El mayor peligro es que estos DeepFakes pueden ser utilizados para difamar a una persona y violentarla, toda vez que la reproducción de estos contenidos se está encaminando hacia la pornografía.
“Los casos que nos están generando más problemas en los tribunales actualmente son los Deep Fake pornográficos, no solo para difamar a alguien, sino que se hacen para que niños en una escuela sufran con un video”, lamentó.
Durante la conferencia magistral denominada: “La prueba y la inteligencia artificial”, que se llevó a cabo en la Escuela Judicial de Toluca, se reconoció que se deberá legislar en esta materia para proteger a todos sobre esta nueva realidad, partiendo de la pregunta ¿cómo detectaremos la realidad que genere la Inteligencia Artificial?