{"title":"禁止基于数字分析的决策自动化","authors":"R. Muñoz","doi":"10.14210/nej.v27n1.p206-223","DOIUrl":null,"url":null,"abstract":"Contextualización: La Inteligencia Artifi cial (IA) genera, produce, implica y representa desafíos para los derechos humanos, tanto que aquella debe concretar un “alineamiento” con estos, y los sistemas inteligentes no pueden producir interferencias con la dignidad humana. Por eso, la manipulación final y operación sobre procesos de IA, debe descansar en personas (y más aún todavía cuando los resultados impactan directamente sobre las libertades), debiendo –en defi nitiva- “la dimensión humana” estar presente en el proceso de toma de decisiones y evaluación sobre quejas ante situaciones de violaciones a los derechos humanos. \nObjetivo: El objetivo de la investigación es identifi car que derechos fundamentales pueden ser afectados por las tecnologías inteligentes, analizando los usos de estas tecnologías y su repercusión sobre los derechos, por un lado, y la necesidad de delimitar su contenido defi niendo garantías, por el otro. \nMetodología: La investigación utilizó el método inductivo aliado a la base lógica inductiva para expresar los resultados. \nResultado: Desde nuestra óptica, la prohibición estudiada no alcanza a toda la automatización de las decisiones administrativas y/o judiciales por medio del uso de IA en el marco de un procedimiento previo llevado a cabo por la Administración pública o el Poder Judicial.","PeriodicalId":249052,"journal":{"name":"Novos Estudos Jurídicos","volume":"11 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2022-06-27","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"PROHBICIÓN DE LA AUTOMATIZACIÓN DECISORIA BASADA EN EL PERFILAMIENTO DIGITAL\",\"authors\":\"R. Muñoz\",\"doi\":\"10.14210/nej.v27n1.p206-223\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"Contextualización: La Inteligencia Artifi cial (IA) genera, produce, implica y representa desafíos para los derechos humanos, tanto que aquella debe concretar un “alineamiento” con estos, y los sistemas inteligentes no pueden producir interferencias con la dignidad humana. Por eso, la manipulación final y operación sobre procesos de IA, debe descansar en personas (y más aún todavía cuando los resultados impactan directamente sobre las libertades), debiendo –en defi nitiva- “la dimensión humana” estar presente en el proceso de toma de decisiones y evaluación sobre quejas ante situaciones de violaciones a los derechos humanos. \\nObjetivo: El objetivo de la investigación es identifi car que derechos fundamentales pueden ser afectados por las tecnologías inteligentes, analizando los usos de estas tecnologías y su repercusión sobre los derechos, por un lado, y la necesidad de delimitar su contenido defi niendo garantías, por el otro. \\nMetodología: La investigación utilizó el método inductivo aliado a la base lógica inductiva para expresar los resultados. \\nResultado: Desde nuestra óptica, la prohibición estudiada no alcanza a toda la automatización de las decisiones administrativas y/o judiciales por medio del uso de IA en el marco de un procedimiento previo llevado a cabo por la Administración pública o el Poder Judicial.\",\"PeriodicalId\":249052,\"journal\":{\"name\":\"Novos Estudos Jurídicos\",\"volume\":\"11 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2022-06-27\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Novos Estudos Jurídicos\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.14210/nej.v27n1.p206-223\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Novos Estudos Jurídicos","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.14210/nej.v27n1.p206-223","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
PROHBICIÓN DE LA AUTOMATIZACIÓN DECISORIA BASADA EN EL PERFILAMIENTO DIGITAL
Contextualización: La Inteligencia Artifi cial (IA) genera, produce, implica y representa desafíos para los derechos humanos, tanto que aquella debe concretar un “alineamiento” con estos, y los sistemas inteligentes no pueden producir interferencias con la dignidad humana. Por eso, la manipulación final y operación sobre procesos de IA, debe descansar en personas (y más aún todavía cuando los resultados impactan directamente sobre las libertades), debiendo –en defi nitiva- “la dimensión humana” estar presente en el proceso de toma de decisiones y evaluación sobre quejas ante situaciones de violaciones a los derechos humanos.
Objetivo: El objetivo de la investigación es identifi car que derechos fundamentales pueden ser afectados por las tecnologías inteligentes, analizando los usos de estas tecnologías y su repercusión sobre los derechos, por un lado, y la necesidad de delimitar su contenido defi niendo garantías, por el otro.
Metodología: La investigación utilizó el método inductivo aliado a la base lógica inductiva para expresar los resultados.
Resultado: Desde nuestra óptica, la prohibición estudiada no alcanza a toda la automatización de las decisiones administrativas y/o judiciales por medio del uso de IA en el marco de un procedimiento previo llevado a cabo por la Administración pública o el Poder Judicial.