V. Cerdán Martínez, Mar García Guardia, G. Padilla Castillo
{"title":"Alfabetización moral digital para la detección de deepfakes y fakes audiovisuales","authors":"V. Cerdán Martínez, Mar García Guardia, G. Padilla Castillo","doi":"10.5209/ciyc.68762","DOIUrl":null,"url":null,"abstract":"Los deepfakes son vídeos manipulados donde se suplanta la cara de una persona por la de otra a través de Inteligencia Artificial. Estos contenidos fotorrealistas pueden convertirse en armas de acoso, propaganda o conflicto social. Esta investigación de innovación teórica ahonda en la incipiente literatura científica sobre el deepfake en Ciencias Sociales, poniendo sus bases en los trabajos de Wenceslao Castañares. Sus objetivos son analizar el fenómeno, buscar herramientas para detectarlo y combatirlo, e inaugurar una nueva vía de alfabetización moral digital de especial interés en el campo de la comunicación, por su importancia social y política. Se emplea una metodología diacrónica en dos pasos. En primer lugar, se realiza una investigación bibliográfica longitudinal y se ofrece una descripción histórica, sistémica y descriptiva, con los rasgos más importantes del fenómeno, naturaleza, funcionamiento y posibles usos. En segundo lugar, se realiza una observación científica consciente de más de medio centenar de vídeos deepfake, para percibir el fenómeno, conseguir una mayor generalización y garantizar la validez de los resultados. Los resultados muestran que aunque se han creado softwares de detección de este tipo de fakes, aún no son de acceso libre y gratuito. La única manera de reconocer el deepfake es a través de una educación moral digital, que pueda detectar una serie de parámetros visuales hiperrealistas: frecuencia del parpadeo, efecto intermitente de las caras o transiciones entre cabeza y cuello.","PeriodicalId":42866,"journal":{"name":"CIC-Cuadernos de Informacion y Comunicacion","volume":"56 1","pages":""},"PeriodicalIF":0.3000,"publicationDate":"2020-06-05","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"CIC-Cuadernos de Informacion y Comunicacion","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5209/ciyc.68762","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q4","JCRName":"COMMUNICATION","Score":null,"Total":0}
引用次数: 0
Abstract
Los deepfakes son vídeos manipulados donde se suplanta la cara de una persona por la de otra a través de Inteligencia Artificial. Estos contenidos fotorrealistas pueden convertirse en armas de acoso, propaganda o conflicto social. Esta investigación de innovación teórica ahonda en la incipiente literatura científica sobre el deepfake en Ciencias Sociales, poniendo sus bases en los trabajos de Wenceslao Castañares. Sus objetivos son analizar el fenómeno, buscar herramientas para detectarlo y combatirlo, e inaugurar una nueva vía de alfabetización moral digital de especial interés en el campo de la comunicación, por su importancia social y política. Se emplea una metodología diacrónica en dos pasos. En primer lugar, se realiza una investigación bibliográfica longitudinal y se ofrece una descripción histórica, sistémica y descriptiva, con los rasgos más importantes del fenómeno, naturaleza, funcionamiento y posibles usos. En segundo lugar, se realiza una observación científica consciente de más de medio centenar de vídeos deepfake, para percibir el fenómeno, conseguir una mayor generalización y garantizar la validez de los resultados. Los resultados muestran que aunque se han creado softwares de detección de este tipo de fakes, aún no son de acceso libre y gratuito. La única manera de reconocer el deepfake es a través de una educación moral digital, que pueda detectar una serie de parámetros visuales hiperrealistas: frecuencia del parpadeo, efecto intermitente de las caras o transiciones entre cabeza y cuello.