{"title":"Especificando la responsabilidad algorítmica","authors":"Jorge Francisco Aguirre Sala","doi":"10.5209/tekn.79692","DOIUrl":null,"url":null,"abstract":"Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos. \n ","PeriodicalId":41758,"journal":{"name":"Teknokultura: Revista de Cultura Digital y Movimientos Sociales","volume":"41 5 1","pages":""},"PeriodicalIF":0.8000,"publicationDate":"2022-05-09","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Teknokultura: Revista de Cultura Digital y Movimientos Sociales","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5209/tekn.79692","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q3","JCRName":"COMMUNICATION","Score":null,"Total":0}
引用次数: 0
Abstract
Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos.