黑人皮肤,白人算法:社会技术网络中的信息和种族主义

Arthur Coelho Bezerra, Camila Silveira da Costa
{"title":"黑人皮肤,白人算法:社会技术网络中的信息和种族主义","authors":"Arthur Coelho Bezerra, Camila Silveira da Costa","doi":"10.18617/liinc.v18i2.6043","DOIUrl":null,"url":null,"abstract":"O racismo é parte da estrutura fundamental das sociedades capitalistas, característica que também se manifesta na forma como as ferramentas tecnológicas são elaboradas. No atual capitalismo de dados, os vieses raciais discriminatórios têm-se revelado como mais uma maneira de reforçar as desigualdades já existentes na sociedade, na medida em que corroboram para a reprodução do racismo que, nas redes sociotécnicas, converte-se em uma forma de opressão algorítmica. A partir de uma abordagem metodológica centrada na revisão de literatura, este artigo tem como objetivo explorar os enviesamentos racistas presentes nas redes digitais, em especial aqueles inscritos nos algoritmos que organizam e classificam a informação disponível online, trazendo o debate ao campo da ética da informação. Os resultados da pesquisa apontam que os softwares e a aplicação das tecnologias de inteligência artificial podem atuar como meios para aprofundar desigualdades, cujos vieses são mascarados tanto pela própria tecnologia (marcada por práticas informacionais invisíveis a seus usuários) quanto pela confiança e crença dataísta na neutralidade tecnológica. Conclui-se que, apesar de não ser a única forma de opressão presente nas redes, o racismo algorítmico tem importante papel na manutenção estrutural das desigualdades raciais, uma vez que não só é alimentado por elas, mas também as alimenta. Nesse sentido, são apresentados elementos que têm potencial de mitigar os vieses algorítmicos atualmente em uso, de forma a trazer mais equidade e responsabilidade em seus processos de elaboração","PeriodicalId":127590,"journal":{"name":"Liinc em Revista","volume":"40 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2022-11-12","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas\",\"authors\":\"Arthur Coelho Bezerra, Camila Silveira da Costa\",\"doi\":\"10.18617/liinc.v18i2.6043\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"O racismo é parte da estrutura fundamental das sociedades capitalistas, característica que também se manifesta na forma como as ferramentas tecnológicas são elaboradas. No atual capitalismo de dados, os vieses raciais discriminatórios têm-se revelado como mais uma maneira de reforçar as desigualdades já existentes na sociedade, na medida em que corroboram para a reprodução do racismo que, nas redes sociotécnicas, converte-se em uma forma de opressão algorítmica. A partir de uma abordagem metodológica centrada na revisão de literatura, este artigo tem como objetivo explorar os enviesamentos racistas presentes nas redes digitais, em especial aqueles inscritos nos algoritmos que organizam e classificam a informação disponível online, trazendo o debate ao campo da ética da informação. Os resultados da pesquisa apontam que os softwares e a aplicação das tecnologias de inteligência artificial podem atuar como meios para aprofundar desigualdades, cujos vieses são mascarados tanto pela própria tecnologia (marcada por práticas informacionais invisíveis a seus usuários) quanto pela confiança e crença dataísta na neutralidade tecnológica. Conclui-se que, apesar de não ser a única forma de opressão presente nas redes, o racismo algorítmico tem importante papel na manutenção estrutural das desigualdades raciais, uma vez que não só é alimentado por elas, mas também as alimenta. Nesse sentido, são apresentados elementos que têm potencial de mitigar os vieses algorítmicos atualmente em uso, de forma a trazer mais equidade e responsabilidade em seus processos de elaboração\",\"PeriodicalId\":127590,\"journal\":{\"name\":\"Liinc em Revista\",\"volume\":\"40 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2022-11-12\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Liinc em Revista\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.18617/liinc.v18i2.6043\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Liinc em Revista","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.18617/liinc.v18i2.6043","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

摘要

种族主义是资本主义社会基本结构的一部分,这一特征也体现在技术工具的制造方式上。在当前的数据资本主义中,种族歧视偏见被证明是加强社会中已经存在的不平等的另一种方式,因为它们证实了种族主义的再生产,而在社会技术网络中,种族主义已成为一种算法压迫的形式。本文采用以文献综述为中心的方法论方法,旨在探讨数字网络中存在的种族主义偏见,特别是那些在组织和分类在线信息的算法中注册的偏见,将辩论带入信息伦理领域。研究结果表明,软件和人工智能技术的应用可以作为加深不平等的手段,这种不平等的偏见被技术本身(以用户看不见的信息实践为标志)和数据主义者对技术中立性的信任和信念所掩盖。我们的结论是,尽管算法种族主义不是网络中唯一的压迫形式,但它在维持种族不平等的结构性方面发挥着重要作用,因为它不仅是由种族不平等助长的,而且还助长了种族不平等。在这个意义上,提出了一些元素,这些元素有可能减轻目前使用的算法偏差,以便在其开发过程中带来更多的公平性和问责性。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
Pele negra, algoritmos brancos: informação e racismo nas redes sociotécnicas
O racismo é parte da estrutura fundamental das sociedades capitalistas, característica que também se manifesta na forma como as ferramentas tecnológicas são elaboradas. No atual capitalismo de dados, os vieses raciais discriminatórios têm-se revelado como mais uma maneira de reforçar as desigualdades já existentes na sociedade, na medida em que corroboram para a reprodução do racismo que, nas redes sociotécnicas, converte-se em uma forma de opressão algorítmica. A partir de uma abordagem metodológica centrada na revisão de literatura, este artigo tem como objetivo explorar os enviesamentos racistas presentes nas redes digitais, em especial aqueles inscritos nos algoritmos que organizam e classificam a informação disponível online, trazendo o debate ao campo da ética da informação. Os resultados da pesquisa apontam que os softwares e a aplicação das tecnologias de inteligência artificial podem atuar como meios para aprofundar desigualdades, cujos vieses são mascarados tanto pela própria tecnologia (marcada por práticas informacionais invisíveis a seus usuários) quanto pela confiança e crença dataísta na neutralidade tecnológica. Conclui-se que, apesar de não ser a única forma de opressão presente nas redes, o racismo algorítmico tem importante papel na manutenção estrutural das desigualdades raciais, uma vez que não só é alimentado por elas, mas também as alimenta. Nesse sentido, são apresentados elementos que têm potencial de mitigar os vieses algorítmicos atualmente em uso, de forma a trazer mais equidade e responsabilidade em seus processos de elaboração
求助全文
通过发布文献求助,成功后即可免费获取论文全文。 去求助
来源期刊
自引率
0.00%
发文量
0
期刊最新文献
Ficção de Pessoa Política Real: formas de consumo simbólico da política em romances imaginados entre Lula e Bolsonaro Autoridades cognitivas versus autoridades eclesiásticas e espirituais: as comunidades evangélicas brasileiras e a desinformação Histórias restritas: o Sistema Integrado de Conhecimento e Gestão e a atribuição de valor no Inventário do Patrimônio de São Leopoldo (RS) Periódicos científicos do sul epistemológico: desafios decoloniais e desobediências epistêmicas O contágio de fake news: uma abordagem biopolítica da desinformação durante a pandemia da covid-19
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1