Especificando la responsabilidad algorítmica

Jorge Francisco Aguirre Sala
{"title":"Especificando la responsabilidad algorítmica","authors":"Jorge Francisco Aguirre Sala","doi":"10.5209/tekn.79692","DOIUrl":null,"url":null,"abstract":"Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos. \n ","PeriodicalId":41758,"journal":{"name":"Teknokultura: Revista de Cultura Digital y Movimientos Sociales","volume":"41 5 1","pages":""},"PeriodicalIF":0.8000,"publicationDate":"2022-05-09","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Teknokultura: Revista de Cultura Digital y Movimientos Sociales","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5209/tekn.79692","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"Q3","JCRName":"COMMUNICATION","Score":null,"Total":0}
引用次数: 0

Abstract

Especificar la responsabilidad algorítmica tiene por objetivo clasificar las acciones de protección ante los impactos de la Inteligencia Artificial. La descripción de los problemas causados por la Inteligencia Artificial, aunada a la revisión de los modelos y componentes de las evaluaciones, permiten discernir sobre las buenas prácticas y métodos para establecer la huella algorítmica y las respectivas consecuencias. Se enumeran los seis inconvenientes causados por la Inteligencia Artificial, enfatizando las violaciones a los derechos fundamentales y las carencias de las autoridades para garantizar las normativas aplicables. El análisis de cuatro modelos de evaluación muestra la conveniencia de enfocarse en el riesgo. Se analizan los componentes y elementos deseables en todas las evaluaciones de impacto algorítmico desde la literatura atingente de los años 2020 y 2021. Se recogen las lecciones de las buenas prácticas de evaluación para demostrar que: las discusiones sugieren transitar hacia expresiones cuantitativas de los aspectos cualitativos, mientras las conclusiones advierten dificultades para construir una fórmula estandarizada de Evaluación. Se propone que las métricas procedan por ponderaciones o valores factoriales, según el número de ámbitos o dominios afectados y la gravedad se establezca en cuatro niveles de impacto, riesgo o daño. En simetría se plantean cuatro acciones de protección: prohibir algunos sistemas de Inteligencia Artificial, asegurar la reparación de daños causados por decisiones tomadas con algoritmos, promover la mitigación de impactos indeseables y establecer la prevención de riesgos.  
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
指定算法责任
指定算法责任的目的是对人工智能影响下的保护行动进行分类。对人工智能造成的问题的描述,结合对模型和评估组件的回顾,允许识别建立算法足迹的良好实践和方法及其各自的后果。它列出了人工智能造成的六种不便,强调了对基本权利的侵犯和当局在确保适用法规方面的不足。对四种评估模型的分析表明,关注风险是可取的。分析了自2020年和2021年相关文献以来所有算法影响评估的理想组件和元素。从良好的评价实践中吸取的教训表明:讨论建议从定性方面转向定量表达,而结论警告建立一个标准化的评价公式的困难。建议根据受影响的领域或领域的数量,通过加权或阶乘值进行度量,并将严重程度设置为影响、风险或损害的四个级别。对称提出了四种保护行动:禁止某些人工智能系统,确保对算法决策造成的损害进行修复,促进减轻不良影响,并建立风险预防。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 去求助
来源期刊
自引率
25.00%
发文量
32
审稿时长
8 weeks
期刊最新文献
Donde todos conocen tu nombre. La ficción como identidad de marca Análisis de la realidad social digital: Hacia una metodología de la investigación social digital Los mapas corporales como técnica de investigación social digital Memes feministas e interacciones en Facebook The use of digital technologies among older adults during the COVID-19 pandemic: A descriptive study in Turkey
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1