This work focuses on the virtual museum, understood as the digital transformation of the traditional museum. First, the main conceptualizations of the virtual museum in the specialized literature are reviewed, and based on them, we propose a basic definition. Furthermore, we argue in favor of the insufficiency of the dataist perspective in the study of epistemic injustice associated with the virtual museum. Finally, the exclusion related to the participation and interaction between a museum’s visitors and the institution is analyzed. Este trabajo se centra en el museo virtual entendido como la transformación digital del museo tradicional. En primer lugar, se revisan las principales conceptualizaciones del museo virtual en la literatura especializada y, a partir de las mismas, se propone una definición básica. Asimismo, se presentan argumentos que muestran la insuficiencia de la perspectiva dataísta en el estudio de la injusticia epistémica relativa al museo virtual. Finalmente, se analiza la exclusión relativa a la participación y la interacción entre las visitantes de un museo (tanto virtual como físico) y la propia institución.
{"title":"Más allá de los datos: la transformación digital del museo tradicional","authors":"Alger Sans Pinillos, Vicent Costa","doi":"10.6018/daimon.563231","DOIUrl":"https://doi.org/10.6018/daimon.563231","url":null,"abstract":"This work focuses on the virtual museum, understood as the digital transformation of the traditional museum. First, the main conceptualizations of the virtual museum in the specialized literature are reviewed, and based on them, we propose a basic definition. Furthermore, we argue in favor of the insufficiency of the dataist perspective in the study of epistemic injustice associated with the virtual museum. Finally, the exclusion related to the participation and interaction between a museum’s visitors and the institution is analyzed.\u0000 Este trabajo se centra en el museo virtual entendido como la transformación digital del museo tradicional. En primer lugar, se revisan las principales conceptualizaciones del museo virtual en la literatura especializada y, a partir de las mismas, se propone una definición básica. Asimismo, se presentan argumentos que muestran la insuficiencia de la perspectiva dataísta en el estudio de la injusticia epistémica relativa al museo virtual. Finalmente, se analiza la exclusión relativa a la participación y la interacción entre las visitantes de un museo (tanto virtual como físico) y la propia institución.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"76655508","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
La irrupción de la utilización generalizada de inteligencia artificial en el ámbito de la comunicación y en concreto en el periodismo muestra un resultado claroscuro que cabe analizar desde una perspectiva crítica. Este artículo aborda desde un perspectiva crítica la revolución que la presencia creciente de la inteligencia artificial está provocando tanto los métodos como en los resultados periodísticos, afectando a sus garantías de calidad y excelencia. El texto sostiene que es necesario acercarse críticamente al impacto actual, así como al potencial, que este presenta para los profesionales, las organizaciones y la sociedad, y propone hacerlo desde el método hermenéutico-crítico de las éticas aplicadas. El estudio se estructura en dos partes. Una primera que realiza una aproximación a la irrupción de la inteligencia artificial en la práctica del periodismo, explicitando las recomendaciones que desde diferentes instancias se ofrecen para orientar esta incorporación de la inteligencia artificial en la práctica comunicativa, concretamente en la periodística. Una segunda parte que identifica los principales riesgos éticos, recomendaciones y principios éticos para afrontarlos desde la autorregulación ética.
{"title":"Exigencias éticas para un periodismo responsable en el contexto de la inteligencia artificial","authors":"Elsa González Esteban, R. Sanahuja","doi":"10.6018/daimon.557391","DOIUrl":"https://doi.org/10.6018/daimon.557391","url":null,"abstract":"La irrupción de la utilización generalizada de inteligencia artificial en el ámbito de la comunicación y en concreto en el periodismo muestra un resultado claroscuro que cabe analizar desde una perspectiva crítica. Este artículo aborda desde un perspectiva crítica la revolución que la presencia creciente de la inteligencia artificial está provocando tanto los métodos como en los resultados periodísticos, afectando a sus garantías de calidad y excelencia. El texto sostiene que es necesario acercarse críticamente al impacto actual, así como al potencial, que este presenta para los profesionales, las organizaciones y la sociedad, y propone hacerlo desde el método hermenéutico-crítico de las éticas aplicadas. El estudio se estructura en dos partes. Una primera que realiza una aproximación a la irrupción de la inteligencia artificial en la práctica del periodismo, explicitando las recomendaciones que desde diferentes instancias se ofrecen para orientar esta incorporación de la inteligencia artificial en la práctica comunicativa, concretamente en la periodística. Una segunda parte que identifica los principales riesgos éticos, recomendaciones y principios éticos para afrontarlos desde la autorregulación ética.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"76610092","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Presentation of the section on Artificial Intelligence, Data and Objectivity: The Return of Data Naturalism? in the Monograph on Artificial Intelligence of Daimon - International Journal of Philosophy. Nº 90 (September - December 2023). Presentación de la sección sobre Inteligencia artificial, datos y objetividad. ¿El regreso del naturalismo dataista? en el Monográfico sobre Inteligencia Artificial de Daimon - Revista Internacional de Filosofía. Nº 90 (septiembre - Diciembre 2023).
人工Presentation of the section on Intelligence, Data and Objectivity: the Return of Data Naturalism ?人工in the专论on Intelligence of恶魔- International Journal of Philosophy。他的父亲是一名律师,母亲是一名律师。介绍人工智能、数据和客观性部分。数据自然主义的回归?《Daimon - international journal of philosophy》关于人工智能的专著。第90期(2023年9月- 12月)。
{"title":"Presentación de la sección sobre Inteligencia artificial, datos y objetividad. ¿El regreso del naturalismo dataísta?","authors":"Ariel Guersenzvaig, David Casacuberta","doi":"10.6018/daimon.576781","DOIUrl":"https://doi.org/10.6018/daimon.576781","url":null,"abstract":"Presentation of the section on Artificial Intelligence, Data and Objectivity: The Return of Data Naturalism? in the Monograph on Artificial Intelligence of Daimon - International Journal of Philosophy. Nº 90 (September - December 2023).\u0000 Presentación de la sección sobre Inteligencia artificial, datos y objetividad. ¿El regreso del naturalismo dataista? en el Monográfico sobre Inteligencia Artificial de Daimon - Revista Internacional de Filosofía. Nº 90 (septiembre - Diciembre 2023).","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"89075715","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
The purpose of this paper is to study the philosophical basis of the architecture of two Artificial Intelligence systems (AlphaGo and Hide and Seek). The problem considers the elucidation of the epistemological distinction between “knowledge” and “intuition” and questions whether the fulfillment of a programmed metric can be considered as a product of knowledge or, as an example of intuitive thinking. Through the analysis of both examples, it is shown that achieving the desired objective (winning a game of Go and developing new hiding strategies) is not derived from the system’s architecture, but from the AI’s creativity to achieve the desired result; in that sense, it can be confirmed that certain intelligent systems are capable of creative and intuitive thinking. El objetivo del presente artículo es estu- diar los fundamentos filosóficos de la arquitectura de programación en dos sistemas de Inteligencia Artificial (AlphaGo y Hide and Seek). El problema dilucida la distinción epistemológica de los concep- tos “conocimiento”, “intuición” y “abducción”, para definir si el cumplimiento exitoso de una métrica programada, por parte de una computadora, es con- dición suficiente para atribuirle un comportamiento inteligente. A través del análisis de ambos ejemplos se muestran dos cuestiones: i) el cumplimiento exitoso de un objetivo programado ofrece nuevos recursos de conocimiento, ii) dichos conocimientos dependen de la ejecución de un programa cuyo pro- cesamiento es desarrollado por una IA y, por tanto, las operaciones superan las capacidades intelectivas humanas. Las conclusiones apuntan a que las com- putadoras son recursos de conocimiento especiales de comprobación de hipótesis.
本文的目的是研究两个人工智能系统(AlphaGo和Hide and Seek)架构的哲学基础。这个问题考虑了对“知识”和“直觉”之间认识论区别的阐明,并质疑程序度量的实现是否可以被视为知识的产物,或者作为直觉思维的一个例子。通过对这两个例子的分析,表明实现预期目标(赢得一盘围棋并开发新的隐藏策略)不是来自系统的架构,而是来自人工智能实现预期结果的创造力;从这个意义上说,可以肯定某些智能系统具有创造性和直觉思维的能力。El objtivo del展示了artículo es estu- diar los。关于“经济”、“intuición”和“abducción”的概念,关于“经济”、“经济”、“经济”、“经济”、“经济”和“经济”的概念,关于“经济”和“经济”的概念,关于“经济”和“经济”的概念,关于“经济”和“经济”的概念,关于“经济”和“经济”的概念,关于“经济”和“经济”的概念,关于“经济”和“经济”的概念。关于下列问题的调查:(1)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;(3)对目标方案的现有情况的调查;(3)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;(3)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;(2)对目标方案的现有情况的调查;最后的结论是,我们可以用一个简单的例子来说明这个问题,特别是comprobación de hipótesis。
{"title":"¿Son las computadoras agentes inteligentes capaces de conocimiento?","authors":"Gustavo Esparza, Daniel A. Martínez-Barba","doi":"10.6018/daimon.557551","DOIUrl":"https://doi.org/10.6018/daimon.557551","url":null,"abstract":"The purpose of this paper is to study the philosophical basis of the architecture of two Artificial Intelligence systems (AlphaGo and Hide and Seek). The problem considers the elucidation of the epistemological distinction between “knowledge” and “intuition” and questions whether the fulfillment of a programmed metric can be considered as a product of knowledge or, as an example of intuitive thinking. Through the analysis of both examples, it is shown that achieving the desired objective (winning a game of Go and developing new hiding strategies) is not derived from the system’s architecture, but from the AI’s creativity to achieve the desired result; in that sense, it can be confirmed that certain intelligent systems are capable of creative and intuitive thinking.\u0000 \u0000\u0000\u0000El objetivo del presente artículo es estu- diar los fundamentos filosóficos de la arquitectura de programación en dos sistemas de Inteligencia Artificial (AlphaGo y Hide and Seek). El problema dilucida la distinción epistemológica de los concep- tos “conocimiento”, “intuición” y “abducción”, para definir si el cumplimiento exitoso de una métrica programada, por parte de una computadora, es con- dición suficiente para atribuirle un comportamiento inteligente. A través del análisis de ambos ejemplos se muestran dos cuestiones: i) el cumplimiento exitoso de un objetivo programado ofrece nuevos recursos de conocimiento, ii) dichos conocimientos dependen de la ejecución de un programa cuyo pro- cesamiento es desarrollado por una IA y, por tanto, las operaciones superan las capacidades intelectivas humanas. Las conclusiones apuntan a que las com- putadoras son recursos de conocimiento especiales de comprobación de hipótesis.\u0000\u0000\u0000","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"82924198","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Este trabajo tematiza la cuestión de los programas informáticos que discriminan, desde la filosofía del lenguaje. En esta disciplina, la bibliografía sobre discurso de odio ha centrado su análisis en los efectos que este produce en los grupos oprimidos. La idea central del presente trabajo será presentar una nueva noción, el discurso influenciado, que permita explicar lo que el grupo opresor es llevado a afirmar en base a la opresión sistemática. Así, el discurso influenciado permitirá tanto explicar la reproducción social de los discursos de odio como enmarcar teóricamente las afirmaciones discriminatorias realizadas por los programas informáticos previamente mencionados.
{"title":"Discurso influenciado: aprendizaje automático y discurso de odio","authors":"Federico Javier Jaimes","doi":"10.6018/daimon.562091","DOIUrl":"https://doi.org/10.6018/daimon.562091","url":null,"abstract":"Este trabajo tematiza la cuestión de los programas informáticos que discriminan, desde la filosofía del lenguaje. En esta disciplina, la bibliografía sobre discurso de odio ha centrado su análisis en los efectos que este produce en los grupos oprimidos. La idea central del presente trabajo será presentar una nueva noción, el discurso influenciado, que permita explicar lo que el grupo opresor es llevado a afirmar en base a la opresión sistemática. Así, el discurso influenciado permitirá tanto explicar la reproducción social de los discursos de odio como enmarcar teóricamente las afirmaciones discriminatorias realizadas por los programas informáticos previamente mencionados.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"75778255","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Presentación de la sección «Ética aplicada para una Inteligencia Artificial confiable» del número monográfico de Daimon Revista Internacional de Filosofía, nº 90 (septiembre - diciembre 2023).
{"title":"Ética aplicada para una Inteligencia Artificial confiable","authors":"Elsa González Esteban, Domingo García-Marzá","doi":"10.6018/daimon.577651","DOIUrl":"https://doi.org/10.6018/daimon.577651","url":null,"abstract":"Presentación de la sección «Ética aplicada para una Inteligencia Artificial confiable» del número monográfico de Daimon Revista Internacional de Filosofía, nº 90 (septiembre - diciembre 2023).","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"72395078","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
The aim of this paper is to study the temporal de-synchronization that occurs, within the European Union (EU), between technological innovations in Artificial Intelligence and its legal regulations. To do that, I base on a thesis formulated by Hartmut Rosa, a German sociologist close to the Critical Theory of society, according to which the temporal structures of politics are no longer compatible with the pace of change in some others social spheres. This produces a new form of social pathology, which Rosa calls "risks of de-synchronisation", and whose most worrying effect must be sought in the displacement of decision-making processes from the political sphere to faster areas of society, fundamentally the market. To analyze this problem, I first reconstruct the thesis of desynchronization as a social pathology derived from acceleration. Then, I map the AI legislation process at EU level. Finally, I defend the thesis that this legislative process, which is certainly very admirable, has consistently come too late. El objetivo de este trabajo es estudiar el desajuste temporal que se produce, dentro de la Unión Europea (UE), entre las innovaciones tecnológicas en materia de Inteligencia Artificial y sus regulaciones jurídicas. Para ello se parte de una tesis formulada por Hartmut Rosa, sociólogo alemán cercano a la Teoría Crítica de la sociedad, de acuerdo con la cual las estructuras temporales de la política no resultan hoy ya compatibles con el ritmo de cambio de algunas esferas sociales. Esto produce una nueva forma de patología social, que Rosa denomina “riesgos de la desincronización”, y cuyo efecto más preocupante hay que buscar en el desplazamiento de los procesos de toma de decisiones desde el ámbito de la política hacia otros ámbitos de la sociedad más rápidos, fundamentalmente el mercado. Para analizar esta problemática se reconstruye, en primer lugar, la tesis de la desincronización como patología social derivada de la aceleración. Tras ello, se hace un mapeo del proceso de legislación en materia de IA a nivel de la UE. Por último, se defiende la tesis de que este proceso legislativo, ciertamente muy admirable, ha llegado sistemáticamente tarde.
本文的目的是研究欧盟(EU)内部人工智能技术创新与其法律法规之间的时间非同步。为了做到这一点,我基于哈特穆特·罗莎(Hartmut Rosa)提出的一个论点,他是一位接近社会批判理论的德国社会学家,根据他的观点,政治的时间结构不再与其他一些社会领域的变化步伐相适应。这产生了一种新形式的社会病态,罗莎称之为“去同步化风险”,其最令人担忧的影响必须是将决策过程从政治领域转移到更快的社会领域,基本上是市场。为了分析这个问题,我首先将非同步性作为一种源自加速的社会病理来重构。然后,我绘制了欧盟层面的人工智能立法过程。最后,我为我的论点辩护,这个立法程序当然是非常令人钦佩的,但总是来得太晚。El objtivo de este trabajo es studar El desaadjust temporal que se produce, dentro de la Unión european (UE), entre las innovaciones tecnológicas en materials de intelligent Artificial y sus regulaciones jurídicas。Para ello se partite de una testesformulada por Hartmut Rosa, sociólogo alemán cercano a la Teoría Crítica de la sociedad, de acuerdo do la culstructuras temporales de la política no resultso ya compatibles con el ritmo de cambio de algunas esferas sociedas。为了产生一个patología社会的新形式,就Rosa denomina " riesgos de la desincronización "而言,通过对más的影响,我们可以了解到,在我们的工作中,我们可以了解到,在我们的决策过程中,我们可以了解到,在我们的决策过程中,我们可以了解到ámbito de la política我们可以了解到,ámbitos de la la sociedad más rápidos,我们可以了解到市场的基本情况。Para analizar esta problemática se reconstrucye, en primer lugar, la tesis de la desincronización como patología社会衍生物de la aceleración。到目前为止,他们已经完成了对legislación材料的研究,并对材料进行了研究。可怜的último,我们为立法程序的论点辩护,这是非常令人钦佩的,这是立法程序sistemáticamente。
{"title":"Sobre los diferentes ritmos del derecho y la Inteligencia Artificial. La desincronización como patología social","authors":"César Ortega Esquembre","doi":"10.6018/daimon.551741","DOIUrl":"https://doi.org/10.6018/daimon.551741","url":null,"abstract":"The aim of this paper is to study the temporal de-synchronization that occurs, within the European Union (EU), between technological innovations in Artificial Intelligence and its legal regulations. To do that, I base on a thesis formulated by Hartmut Rosa, a German sociologist close to the Critical Theory of society, according to which the temporal structures of politics are no longer compatible with the pace of change in some others social spheres. This produces a new form of social pathology, which Rosa calls \"risks of de-synchronisation\", and whose most worrying effect must be sought in the displacement of decision-making processes from the political sphere to faster areas of society, fundamentally the market. To analyze this problem, I first reconstruct the thesis of desynchronization as a social pathology derived from acceleration. Then, I map the AI legislation process at EU level. Finally, I defend the thesis that this legislative process, which is certainly very admirable, has consistently come too late.\u0000 El objetivo de este trabajo es estudiar el desajuste temporal que se produce, dentro de la Unión Europea (UE), entre las innovaciones tecnológicas en materia de Inteligencia Artificial y sus regulaciones jurídicas. Para ello se parte de una tesis formulada por Hartmut Rosa, sociólogo alemán cercano a la Teoría Crítica de la sociedad, de acuerdo con la cual las estructuras temporales de la política no resultan hoy ya compatibles con el ritmo de cambio de algunas esferas sociales. Esto produce una nueva forma de patología social, que Rosa denomina “riesgos de la desincronización”, y cuyo efecto más preocupante hay que buscar en el desplazamiento de los procesos de toma de decisiones desde el ámbito de la política hacia otros ámbitos de la sociedad más rápidos, fundamentalmente el mercado. Para analizar esta problemática se reconstruye, en primer lugar, la tesis de la desincronización como patología social derivada de la aceleración. Tras ello, se hace un mapeo del proceso de legislación en materia de IA a nivel de la UE. Por último, se defiende la tesis de que este proceso legislativo, ciertamente muy admirable, ha llegado sistemáticamente tarde.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"89928249","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Este artículo aborda el concepto de discriminación algorítmica desde una perspectiva conjunta de la filosofía y la ciencia de la computación, con el propósito de establecer un marco de discusión común para avanzar en el despliegue de las inteligencias artificiales en las sociedades democráticas. Se presenta una definición no normativa de discriminación y se analiza y contextualiza el concepto de algoritmo usando un enfoque intencional, enmarcándolo en el proceso de toma de decisiones e identificando las fuentes de discriminación, así como los conceptos detrás de su cuantificación para terminar exponiendo algunos límites y desafíos.
{"title":"Cerrando una brecha: una reflexión multidisciplinar sobre la discriminación algorítmica","authors":"Pilar Dellunde, O. Pujol, Jordi Vitrià","doi":"10.6018/daimon.562811","DOIUrl":"https://doi.org/10.6018/daimon.562811","url":null,"abstract":"Este artículo aborda el concepto de discriminación algorítmica desde una perspectiva conjunta de la filosofía y la ciencia de la computación, con el propósito de establecer un marco de discusión común para avanzar en el despliegue de las inteligencias artificiales en las sociedades democráticas. Se presenta una definición no normativa de discriminación y se analiza y contextualiza el concepto de algoritmo usando un enfoque intencional, enmarcándolo en el proceso de toma de decisiones e identificando las fuentes de discriminación, así como los conceptos detrás de su cuantificación para terminar exponiendo algunos límites y desafíos.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"82788849","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Conservation biology has embraced the development and application of artificial intelligence to optimize its work. The efficiency with which machine learning processes data helps to identify wild species, repair anthropogenic impacts, and intervene in ecosystems, offering supposedly good results for conservation. Thus, artificial intelligence can here be proposed as an ally of environmental justice. However, I will dispute this thesis, arguing that since conservation biology does not start from absolute parameters and environmental justice is not free from moral plurality, then artificial intelligence could reproduce and increase epistemological and ethical biases. La biología de la conservación se ha sumado al uso de la inteligencia artificial para optimizar su trabajo. La eficiencia con que esta procesa los datos ayuda a identificar especies salvajes, reparar los impactos antropogénicos e intervenir en ecosistemas, ofreciendo resultados supuestamente buenos para la conservación. Así, la inteligencia artificial puede proponerse como una aliada de la justicia ambiental. Pero discutiré esta tesis, argumentando que como la biología de la conservación no parte de parámetros absolutos y la justicia ambiental no está exenta de una pluralidad moral, entonces la inteligencia artificial puede reproducir y aumentar los sesgos epistemológicos y éticos.
保护生物学已经接受了人工智能的发展和应用,以优化其工作。机器学习处理数据的效率有助于识别野生物种,修复人为影响,干预生态系统,为保护提供了良好的结果。因此,人工智能在这里可以被认为是环境正义的盟友。然而,我将对这一论点提出异议,认为由于保护生物学并非从绝对参数开始,环境正义并非摆脱道德多元性,那么人工智能可能会复制并增加认识论和伦理偏见。La biología de La conservación se . a . sumado al . so . de La intelligent artificial para optimization su traabajo。在同一种类的salvaas中,效率与效率之间的关系是相同的,在同一种类的salvaas中,对不同种类的salvaas的影响是相同的,在不同种类的salvaas中,对不同种类的salvaas的影响是相同的,在不同种类的salvaas中,结果是相同的。Así, la intelligigencia artificial puede advocate, como una aliada de la justice ambiental。Pero distitirise论点,论点和论点都是相同的biología de la conservación没有一方de parámetros绝对是由司法的,环境的,没有评估的, exenta de una多元道德,ententes la智能,人工的,生殖的,人工的,生殖的,由人工的los sesgos epistemológicos y 。
{"title":"¿La IA usada en biología de la conservación es una buena estrategia de justicia ambiental?","authors":"Cristian Moyano","doi":"10.6018/daimon.561551","DOIUrl":"https://doi.org/10.6018/daimon.561551","url":null,"abstract":"Conservation biology has embraced the development and application of artificial intelligence to optimize its work. The efficiency with which machine learning processes data helps to identify wild species, repair anthropogenic impacts, and intervene in ecosystems, offering supposedly good results for conservation. Thus, artificial intelligence can here be proposed as an ally of environmental justice. However, I will dispute this thesis, arguing that since conservation biology does not start from absolute parameters and environmental justice is not free from moral plurality, then artificial intelligence could reproduce and increase epistemological and ethical biases.\u0000 La biología de la conservación se ha sumado al uso de la inteligencia artificial para optimizar su trabajo. La eficiencia con que esta procesa los datos ayuda a identificar especies salvajes, reparar los impactos antropogénicos e intervenir en ecosistemas, ofreciendo resultados supuestamente buenos para la conservación. Así, la inteligencia artificial puede proponerse como una aliada de la justicia ambiental. Pero discutiré esta tesis, argumentando que como la biología de la conservación no parte de parámetros absolutos y la justicia ambiental no está exenta de una pluralidad moral, entonces la inteligencia artificial puede reproducir y aumentar los sesgos epistemológicos y éticos.","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"85819020","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}
Este artículo muestra que la ética del discurso en versión de la ética cordis contribuye a mantener una actitud crítica de discernimiento ante las tecnologías de la inteligencia artificial. Propone distinguir entre opinión pública y razón pública, para destacar el sentido crítico del uso público de la razón en la línea de Kant, Rawls, Habermas y Cortina. Y afrontar las dificultades para ejercer la razón pública en la era digital: impacto de la inteligencia artificial en la comunicación, hiperconectitividad, datificación, “panóptico digital” y la espiral del silencio, que ponen en peligro el uso de la razón y la intimidad personal
{"title":"Ética discursiva e inteligencia artificial. ¿Favorece la inteligencia artificial la razón pública?","authors":"Jesús Conill Sancho","doi":"10.6018/daimon.562371","DOIUrl":"https://doi.org/10.6018/daimon.562371","url":null,"abstract":"Este artículo muestra que la ética del discurso en versión de la ética cordis contribuye a mantener una actitud crítica de discernimiento ante las tecnologías de la inteligencia artificial. Propone distinguir entre opinión pública y razón pública, para destacar el sentido crítico del uso público de la razón en la línea de Kant, Rawls, Habermas y Cortina. Y afrontar las dificultades para ejercer la razón pública en la era digital: impacto de la inteligencia artificial en la comunicación, hiperconectitividad, datificación, “panóptico digital” y la espiral del silencio, que ponen en peligro el uso de la razón y la intimidad personal","PeriodicalId":51979,"journal":{"name":"Daimon-Revista Internacional de Filosofia","volume":null,"pages":null},"PeriodicalIF":0.2,"publicationDate":"2023-09-01","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":null,"resultStr":null,"platform":"Semanticscholar","paperid":"73099182","PeriodicalName":null,"FirstCategoryId":null,"ListUrlMain":null,"RegionNum":0,"RegionCategory":"","ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":"","EPubDate":null,"PubModel":null,"JCR":null,"JCRName":null,"Score":null,"Total":0}