{"title":"人工智能系统使用中的法律保障分类","authors":"Pere Simón Castellano","doi":"10.5944/rdp.117.2023.37929","DOIUrl":null,"url":null,"abstract":"En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.","PeriodicalId":164348,"journal":{"name":"Revista de Derecho Político","volume":"54 67 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2023-07-14","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":"{\"title\":\"Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial\",\"authors\":\"Pere Simón Castellano\",\"doi\":\"10.5944/rdp.117.2023.37929\",\"DOIUrl\":null,\"url\":null,\"abstract\":\"En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.\",\"PeriodicalId\":164348,\"journal\":{\"name\":\"Revista de Derecho Político\",\"volume\":\"54 67 1\",\"pages\":\"0\"},\"PeriodicalIF\":0.0000,\"publicationDate\":\"2023-07-14\",\"publicationTypes\":\"Journal Article\",\"fieldsOfStudy\":null,\"isOpenAccess\":false,\"openAccessPdf\":\"\",\"citationCount\":\"0\",\"resultStr\":null,\"platform\":\"Semanticscholar\",\"paperid\":null,\"PeriodicalName\":\"Revista de Derecho Político\",\"FirstCategoryId\":\"1085\",\"ListUrlMain\":\"https://doi.org/10.5944/rdp.117.2023.37929\",\"RegionNum\":0,\"RegionCategory\":null,\"ArticlePicture\":[],\"TitleCN\":null,\"AbstractTextCN\":null,\"PMCID\":null,\"EPubDate\":\"\",\"PubModel\":\"\",\"JCR\":\"\",\"JCRName\":\"\",\"Score\":null,\"Total\":0}","platform":"Semanticscholar","paperid":null,"PeriodicalName":"Revista de Derecho Político","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.5944/rdp.117.2023.37929","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
Taxonomía de las garantías jurídicas en el empleo de los sistemas de inteligencia artificial
En el presente artículo se estudia el enorme desafío que proyectan los sistemas de inteligencia artificial para los derechos de las personas, planteando los términos del debate con una propuesta que responde a cuestiones clave —qué, para qué, quién y cómo— y que se concreta en la definición de la taxonomía de las garantías frente al empleo de algoritmos para la toma de decisiones que producen efectos jurídicos para los individuos.Ante la insuficiencia de una respuesta basada en el marco jurídico de la protección de datos, y las limitaciones de un enfoque centrado exclusivamente en la transparencia y el derecho de acceso, el autor defiende la necesidad de encontrar el sustento para medidas y garantías sistémicas en la dignidad humana, el libre desarrollo de la personalidad y la dimensión objetiva de los derechos fundamentales. Una lectura más amplia, que escapa a los derechos individuales y que tiene en cuenta la dimensión social o colectiva de la problemática, en la misma línea que la propuesta europea de reglamento armonizado sobre la materia.El debate debe centrarse, a juicio del autor, en torno a los usos plausibles, posibles, y las garantías vinculadas a su empleo, aceptando un modelo de corregulación basado en el principio de responsabilidad proactiva y las autoevaluaciones de impacto, que se imponen en la práctica por pragmatismo, con el fin de obtener cierta eficacia y mitigar riesgos en el diseño, entrenamiento, empleo y monitorización de herramientas tecnológicas.La propuesta formulada en el trabajo incorpora hasta cinco categorías —transparencia, explicabilidad, seguridad, garantías subjetivas y garantías institucionales— que, a su vez, están integradas por distintas propiedades y subcategorías, y cuya eficacia o relevancia depende de cada caso concreto —naturaleza, contexto y alcance de la tecnología y de su empleo—.