algorítmicas不平等

María José Añón Roig
{"title":"algorítmicas不平等","authors":"María José Añón Roig","doi":"10.20318/dyl.2022.6872","DOIUrl":null,"url":null,"abstract":"Este artículo propone un análisis sobre las desigualdades originadas o reforzadas por el uso de los modelos y programas de aprendizaje automático que encuentran una de sus principales justificaciones en el principio de precisión predictiva, así como sobre algunas respuestas que cabe esperar del sistema jurídico para abordarlas. Este tema ha sido tratado fundamentalmente bien a través de la tutela del derecho a la privacidad y la protección de datos, bien mediante la elaboración de códigos éticos. Aquí se adoptarán dos perspectivas distintas a las anteriores. En primer lugar, el enfoque del riesgo, marco en el que se ha emplazado recientemente la regulación europea de la inteligencia artificial y desde el que se examinarán las obligaciones vinculadas a las prácticas consideradas de alto riesgo. En segundo lugar, la perspectiva del Derecho antidiscriminatorio; en este sentido, se analizarán las virtualidades y los límites del este sector delos ordenamientos jurídicos. La finalidad de este artículo es mostrar que si el Derecho antidiscriminatorio ha de responder a las prácticas más controvertidas de los modelos algorítmicos, ha de superar la visión binaria de la teoría antidiscriminatoria y ser interpretada como una teoría jurídica con capacidad para transformar la realidad social. ","PeriodicalId":32727,"journal":{"name":"Deusto Journal of Human Rights","volume":null,"pages":null},"PeriodicalIF":0.0000,"publicationDate":"2022-04-22","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Desigualdades algorítmicas\",\"authors\":\"María José Añón Roig\",\"doi\":\"10.20318/dyl.2022.6872\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Este artículo propone un análisis sobre las desigualdades originadas o reforzadas por el uso de los modelos y programas de aprendizaje automático que encuentran una de sus principales justificaciones en el principio de precisión predictiva, así como sobre algunas respuestas que cabe esperar del sistema jurídico para abordarlas. Este tema ha sido tratado fundamentalmente bien a través de la tutela del derecho a la privacidad y la protección de datos, bien mediante la elaboración de códigos éticos. Aquí se adoptarán dos perspectivas distintas a las anteriores. En primer lugar, el enfoque del riesgo, marco en el que se ha emplazado recientemente la regulación europea de la inteligencia artificial y desde el que se examinarán las obligaciones vinculadas a las prácticas consideradas de alto riesgo. En segundo lugar, la perspectiva del Derecho antidiscriminatorio; en este sentido, se analizarán las virtualidades y los límites del este sector delos ordenamientos jurídicos. La finalidad de este artículo es mostrar que si el Derecho antidiscriminatorio ha de responder a las prácticas más controvertidas de los modelos algorítmicos, ha de superar la visión binaria de la teoría antidiscriminatoria y ser interpretada como una teoría jurídica con capacidad para transformar la realidad social. \",\"PeriodicalId\":32727,\"journal\":{\"name\":\"Deusto Journal of Human Rights\",\"volume\":null,\"pages\":null},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2022-04-22\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Deusto Journal of Human Rights\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.20318/dyl.2022.6872\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Deusto Journal of Human Rights","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.20318/dyl.2022.6872","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

摘要

本文分析了由于使用机器学习模型和程序而产生或加剧的不平等现象,这些不平等现象的主要理由之一是预测准确性原则,以及法律体系应对这些不平等的一些预期反应。这一问题主要是通过保护隐私权和数据保护,或通过制定道德准则来解决的。这里将采用两种不同的观点。首先,风险方法,这是欧洲人工智能监管最近建立的框架,将审查与被认为是高风险的做法相关的义务。第二,反歧视法的前景;在这方面,将分析法律制度这一部门的潜力和局限性。本文的目的是表明如果antidiscriminatorio法解决了算法模型的最具争议性的做法,已超过二进制反歧视理论构想,并被视为一个法律理论与容量转换社会现实。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
Desigualdades algorítmicas
Este artículo propone un análisis sobre las desigualdades originadas o reforzadas por el uso de los modelos y programas de aprendizaje automático que encuentran una de sus principales justificaciones en el principio de precisión predictiva, así como sobre algunas respuestas que cabe esperar del sistema jurídico para abordarlas. Este tema ha sido tratado fundamentalmente bien a través de la tutela del derecho a la privacidad y la protección de datos, bien mediante la elaboración de códigos éticos. Aquí se adoptarán dos perspectivas distintas a las anteriores. En primer lugar, el enfoque del riesgo, marco en el que se ha emplazado recientemente la regulación europea de la inteligencia artificial y desde el que se examinarán las obligaciones vinculadas a las prácticas consideradas de alto riesgo. En segundo lugar, la perspectiva del Derecho antidiscriminatorio; en este sentido, se analizarán las virtualidades y los límites del este sector delos ordenamientos jurídicos. La finalidad de este artículo es mostrar que si el Derecho antidiscriminatorio ha de responder a las prácticas más controvertidas de los modelos algorítmicos, ha de superar la visión binaria de la teoría antidiscriminatoria y ser interpretada como una teoría jurídica con capacidad para transformar la realidad social. 
求助全文
通过发布文献求助,成功后即可免费获取论文全文。 去求助
来源期刊
自引率
0.00%
发文量
9
审稿时长
27 weeks
期刊最新文献
La futura Autoridad Independiente para la Igualdad de Trato y la No Discriminación: diseño institucional para una prestación de asistencia independiente y efectiva Crowley, Niall. 2022. To name and address the underlying problem: Structural discrimination on the ground of racial or ethnic origin, Brussels: European Commission, Directorate-General for Justice and Consumers, 110 p. La interseccionalidad de la discriminación por razones de género, raza y etnia de las mujeres solicitantes de asilo víctimas de violencia de género en la UE. Especial referencia a la situación italiana Equality bodies in the European Union: The Spanish independent authority for equal treatment Policy coherence for vulnerability in migration. The crossroads of migrant integration governance
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1