{"title":"人工智能、YouTube内容审核与权利保护:特点、问题与政治影响","authors":"S. Silva, D. Cesar","doi":"10.18617/liinc.v18i2.6080","DOIUrl":null,"url":null,"abstract":"Este artigo tem como principal objetivo caracterizar o papel de sistemas de inteligência artificial na moderação de conteúdos de usuários no YouTube, seus problemas e impactos políticos, especialmente no horizonte da proteção de direitos individuais. A pesquisa utilizou o método de rastreamento de processo, baseado na coleta e análise de dados qualitativos para estabelecer relações causais e compreender como ocorre a moderação de conteúdos na plataforma. Foram analisados 79 textos dentre notas e informações publicadas pela plataforma em seu blog corporativo; documentos de políticas de moderação de conteúdos e relatórios de transparência da empresa. Os resultados demonstram que há uma crescente centralização da Inteligência Artificial (IA) no processo de moderação de conteúdo, transformando a moderação humana em um dispositivo do sistema automatizado. Isso tem gerado um crescimento substancial do número de remoções de conteúdo potencialmente nocivo que traz, por outro lado, efeitos colaterais como o aumento das violações de direitos individuais pela plataforma. Opacidade; acirramento no problema da escala; moderação guiada por princípios comerciais; falhas na captação de contexto; fragilidade nos processos de participação e accountability são outros problemas também identificados","PeriodicalId":127590,"journal":{"name":"Liinc em Revista","volume":"11 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2022-11-24","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Inteligência Artificial, moderação de conteúdos no YouTube e a proteção de direitos: características, problemas e impactos políticos\",\"authors\":\"S. Silva, D. Cesar\",\"doi\":\"10.18617/liinc.v18i2.6080\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Este artigo tem como principal objetivo caracterizar o papel de sistemas de inteligência artificial na moderação de conteúdos de usuários no YouTube, seus problemas e impactos políticos, especialmente no horizonte da proteção de direitos individuais. A pesquisa utilizou o método de rastreamento de processo, baseado na coleta e análise de dados qualitativos para estabelecer relações causais e compreender como ocorre a moderação de conteúdos na plataforma. Foram analisados 79 textos dentre notas e informações publicadas pela plataforma em seu blog corporativo; documentos de políticas de moderação de conteúdos e relatórios de transparência da empresa. Os resultados demonstram que há uma crescente centralização da Inteligência Artificial (IA) no processo de moderação de conteúdo, transformando a moderação humana em um dispositivo do sistema automatizado. Isso tem gerado um crescimento substancial do número de remoções de conteúdo potencialmente nocivo que traz, por outro lado, efeitos colaterais como o aumento das violações de direitos individuais pela plataforma. Opacidade; acirramento no problema da escala; moderação guiada por princípios comerciais; falhas na captação de contexto; fragilidade nos processos de participação e accountability são outros problemas também identificados\",\"PeriodicalId\":127590,\"journal\":{\"name\":\"Liinc em Revista\",\"volume\":\"11 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2022-11-24\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Liinc em Revista\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.18617/liinc.v18i2.6080\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Liinc em Revista","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.18617/liinc.v18i2.6080","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Inteligência Artificial, moderação de conteúdos no YouTube e a proteção de direitos: características, problemas e impactos políticos
Este artigo tem como principal objetivo caracterizar o papel de sistemas de inteligência artificial na moderação de conteúdos de usuários no YouTube, seus problemas e impactos políticos, especialmente no horizonte da proteção de direitos individuais. A pesquisa utilizou o método de rastreamento de processo, baseado na coleta e análise de dados qualitativos para estabelecer relações causais e compreender como ocorre a moderação de conteúdos na plataforma. Foram analisados 79 textos dentre notas e informações publicadas pela plataforma em seu blog corporativo; documentos de políticas de moderação de conteúdos e relatórios de transparência da empresa. Os resultados demonstram que há uma crescente centralização da Inteligência Artificial (IA) no processo de moderação de conteúdo, transformando a moderação humana em um dispositivo do sistema automatizado. Isso tem gerado um crescimento substancial do número de remoções de conteúdo potencialmente nocivo que traz, por outro lado, efeitos colaterais como o aumento das violações de direitos individuais pela plataforma. Opacidade; acirramento no problema da escala; moderação guiada por princípios comerciais; falhas na captação de contexto; fragilidade nos processos de participação e accountability são outros problemas também identificados