Complying with the First Law of Robotics: An Analysis of the Occupational Risks Associated with Work Directed by an Algorithm/Artificial Intelligence

Adrián Todolí-Signes
{"title":"Complying with the First Law of Robotics: An Analysis of the Occupational Risks Associated with Work Directed by an Algorithm/Artificial Intelligence","authors":"Adrián Todolí-Signes","doi":"10.2139/ssrn.3522406","DOIUrl":null,"url":null,"abstract":"Spanish Abstract: Cada vez es mas frecuente la utilizacion por parte de la empresa de mecanismos de inteligencia artificial, mas o menos avanzados, para gestionar el trabajo: establecer turnos de trabajo, tiempos en la produccion, designar y disenar tareas para los trabajadores, contratar, evaluar el desempeno y despedir. Las empresas confian en que la tecnologia recoja toda la informacion disponible, la procese y tome las mejores decisiones de gestion –optimizacion productiva- en beneficio de la misma. Con ello, se sustituye a los supervisores y mandos intermedios humanos, asi como a los expertos de recursos humanos dejando la direccion de los trabajadores en manos de procesos automatizados manejados por algoritmos –o en su estado mas avanzado, en la inteligencia artificial-. \n \nEn este trabajo, se exponen los peligros para la salud que nueva forma de gestion tecnologica puede provocar. En efecto, la monitorizacion constante a traves de sensores, la intensificacion del trabajo derivada de las decisiones tomadas por una maquina sin empatia ni conocimiento sobre los limites humanos, la reduccion de autonomia del trabajador sometido a las decisiones tomadas por la inteligencia artificial, las discriminaciones bajo un manto de neutralidad algoritmica de esas decisiones, asi como los posibles errores de funcionamiento, pueden acabar provocando serios problemas de salud fisica y psicologica para los trabajadores. \n \nEstos riesgos pueden reducirse si se tienen en cuenta en la programacion. En este trabajo, se defiende la necesidad de una correcta programacion del algoritmo para que valore los riesgos laborales expuestos. Es decir, de la misma forma que un supervisor debe tener formacion en prevencion de riesgos para poder realizar su trabajo, el algoritmo debera ser programado para que sopese los riesgos laborales en el trabajo –y en caso de no contar con esta programacion debera impedirse su utilizacion para dirigir trabajadores. Concretamente, el algoritmo debera ser trasparente, adaptado a las capacidades reales del trabajador, debera dejar algun margen de autonomia al trabajador y respetar su privacidad. En definitiva, el algoritmo debera valorar cualquier elemento que suponga un riesgo para la seguridad y salud de los trabajadores. Para ello, se defiende que la preceptiva evaluacion de riesgos, realizada por los tecnicos, sea volcada en la programacion del algoritmo para que este la respete en la toma de decisiones en la direccion del trabajo. \n \nEnglish Abstract: The use of Artificial Intelligence mechanisms, more or less advanced, to manage the work is more and more frequent: to establish work shifts, production times, designate and design tasks for workers, hire, evaluate the performance and fire. Companies trust that technology collects all available information, processes it and makes the best management decisions - productive optimization - for the benefit of it. With this, the supervisors and middle managers are replaced, as well as the human resources experts, leaving the direction of the workers in the hands of automated processes managed by algorithms - or in their most advanced state, in Artificial Intelligence. \n \nIn this work, the health hazards that new form of technological management can cause are exposed. Indeed, the constant monitoring through sensors, the intensification of work derived from the decisions taken by a machine without empathy or knowledge about human limits, the reduction of autonomy of the worker subjected to the decisions made Artificial Intelligence, discriminations, under a blanket of algorithmic neutrality of these decisions, as well as possible operational errors, they can end up causing serious physical and psychological health problems for workers. \n \nThese risks can be reduced if they are taken into account in programming. In this work, the need for a correct programming of the algorithm to assess the exposed occupational risks is defended. That is to say, in the same way that a supervisor must have training in risk prevention to be able to carry out his work, the algorithm must be programmed to weigh the occupational hazards at work - and in case of not having this programming, its use to direct workers should be banned. Specifically, the algorithm must be transparent, adapted to the real capabilities of the worker, must leave some margin of autonomy for the worker and respect their privacy. In short, the algorithm must assess any element that poses a risk to the safety and health of workers. To do this, it is argued that the mandatory risk assessment, carried out by the technicians, should be done focused on programming the algorithm so that it respects it in decision making in the work direction.","PeriodicalId":357008,"journal":{"name":"Employment Law eJournal","volume":"1 1","pages":"0"},"PeriodicalIF":0.0000,"publicationDate":"2019-12-19","publicationTypes":"Journal Article","fieldsOfStudy":null,"isOpenAccess":false,"openAccessPdf":"","citationCount":"0","resultStr":null,"platform":"Semanticscholar","paperid":null,"PeriodicalName":"Employment Law eJournal","FirstCategoryId":"1085","ListUrlMain":"https://doi.org/10.2139/ssrn.3522406","RegionNum":0,"RegionCategory":null,"ArticlePicture":[],"TitleCN":null,"AbstractTextCN":null,"PMCID":null,"EPubDate":"","PubModel":"","JCR":"","JCRName":"","Score":null,"Total":0}
引用次数: 0

Abstract

Spanish Abstract: Cada vez es mas frecuente la utilizacion por parte de la empresa de mecanismos de inteligencia artificial, mas o menos avanzados, para gestionar el trabajo: establecer turnos de trabajo, tiempos en la produccion, designar y disenar tareas para los trabajadores, contratar, evaluar el desempeno y despedir. Las empresas confian en que la tecnologia recoja toda la informacion disponible, la procese y tome las mejores decisiones de gestion –optimizacion productiva- en beneficio de la misma. Con ello, se sustituye a los supervisores y mandos intermedios humanos, asi como a los expertos de recursos humanos dejando la direccion de los trabajadores en manos de procesos automatizados manejados por algoritmos –o en su estado mas avanzado, en la inteligencia artificial-. En este trabajo, se exponen los peligros para la salud que nueva forma de gestion tecnologica puede provocar. En efecto, la monitorizacion constante a traves de sensores, la intensificacion del trabajo derivada de las decisiones tomadas por una maquina sin empatia ni conocimiento sobre los limites humanos, la reduccion de autonomia del trabajador sometido a las decisiones tomadas por la inteligencia artificial, las discriminaciones bajo un manto de neutralidad algoritmica de esas decisiones, asi como los posibles errores de funcionamiento, pueden acabar provocando serios problemas de salud fisica y psicologica para los trabajadores. Estos riesgos pueden reducirse si se tienen en cuenta en la programacion. En este trabajo, se defiende la necesidad de una correcta programacion del algoritmo para que valore los riesgos laborales expuestos. Es decir, de la misma forma que un supervisor debe tener formacion en prevencion de riesgos para poder realizar su trabajo, el algoritmo debera ser programado para que sopese los riesgos laborales en el trabajo –y en caso de no contar con esta programacion debera impedirse su utilizacion para dirigir trabajadores. Concretamente, el algoritmo debera ser trasparente, adaptado a las capacidades reales del trabajador, debera dejar algun margen de autonomia al trabajador y respetar su privacidad. En definitiva, el algoritmo debera valorar cualquier elemento que suponga un riesgo para la seguridad y salud de los trabajadores. Para ello, se defiende que la preceptiva evaluacion de riesgos, realizada por los tecnicos, sea volcada en la programacion del algoritmo para que este la respete en la toma de decisiones en la direccion del trabajo. English Abstract: The use of Artificial Intelligence mechanisms, more or less advanced, to manage the work is more and more frequent: to establish work shifts, production times, designate and design tasks for workers, hire, evaluate the performance and fire. Companies trust that technology collects all available information, processes it and makes the best management decisions - productive optimization - for the benefit of it. With this, the supervisors and middle managers are replaced, as well as the human resources experts, leaving the direction of the workers in the hands of automated processes managed by algorithms - or in their most advanced state, in Artificial Intelligence. In this work, the health hazards that new form of technological management can cause are exposed. Indeed, the constant monitoring through sensors, the intensification of work derived from the decisions taken by a machine without empathy or knowledge about human limits, the reduction of autonomy of the worker subjected to the decisions made Artificial Intelligence, discriminations, under a blanket of algorithmic neutrality of these decisions, as well as possible operational errors, they can end up causing serious physical and psychological health problems for workers. These risks can be reduced if they are taken into account in programming. In this work, the need for a correct programming of the algorithm to assess the exposed occupational risks is defended. That is to say, in the same way that a supervisor must have training in risk prevention to be able to carry out his work, the algorithm must be programmed to weigh the occupational hazards at work - and in case of not having this programming, its use to direct workers should be banned. Specifically, the algorithm must be transparent, adapted to the real capabilities of the worker, must leave some margin of autonomy for the worker and respect their privacy. In short, the algorithm must assess any element that poses a risk to the safety and health of workers. To do this, it is argued that the mandatory risk assessment, carried out by the technicians, should be done focused on programming the algorithm so that it respects it in decision making in the work direction.
查看原文
分享 分享
微信好友 朋友圈 QQ好友 复制链接
本刊更多论文
遵守机器人第一定律:算法/人工智能指导下工作的职业风险分析
摘要:公司越来越频繁地使用或多或少先进的人工智能机制来管理工作:建立工作班次,生产时间,为工人分配和设计任务,雇佣,评估绩效和解雇。公司相信技术能够收集所有可用的信息,对其进行处理,并做出最佳的管理决策——生产优化——以使其受益。因此,它取代了人力主管和中层管理人员,以及人力资源专家,将工人的管理留给由算法管理的自动化流程——或在其最先进的状态,人工智能——。这项工作暴露了新形式的技术管理可能造成的健康危害。实际上,monitorizacion不断成败的传感器,intensificacion机器工作的决定,empatia还是限制人权知识,工人减贫努力范围进行人工智能的决定,取缔这些决定下一个处女algoritmica中立的运作,就是潜在的错误它们最终会给工人造成严重的身心健康问题。如果在规划中考虑到这些风险,就可以减少这些风险。本文提出了一种新的方法来评估工作场所暴露的风险。也就是说,同样一个上司应该有编队飞行风险sadasivam才能完成其工作,让算法被安排工作中的劳动风险—如果不指望这个programacion你阻止她的utilizacion指导工人。具体来说,算法应该是透明的,适应工人的实际能力,给工人一定的自主权,尊重他们的隐私。简而言之,该算法必须评估任何对工人健康和安全构成风险的因素。为了实现这一目标,建议将由技术人员进行的强制性风险评估纳入算法的编程,以便在工作方向的决策中尊重它。英文摘要:越来越频繁地使用或多或少先进的人工智能机制来管理工作:建立工作班次、生产时间、为工人指定和设计任务、雇用、评估绩效和解雇。公司相信,技术可以收集所有可用的信息,处理它,并做出最佳的管理决策——生产优化——以造福它。通过这种方式,主管和中层管理人员以及人力资源专家被取代,将工人的管理交给由算法管理的自动化过程,或在其最先进的状态,人工智能。在这项工作中,暴露了新形式的技术管理可能造成的健康危害。其实,常数monitoring through sensors, the intensification of work毁坏决定采取by a machine without empathy or knowledge about human界限,减少of autonomy of the政府部因to the决定made人工情报,歧视,under a blanket of algorithmic中立这些决定的不确定性,以及可能的运作,they can end up先后严重的身体和心理健康problems for工作者。如果在编制方案时考虑到这些风险,就可以减少这些风险。在这篇论文中,有必要对评估暴露的职业风险的算法进行适当的编程。That is to say, in the same way That a必须向主管培训预防风险需作to carry out的work, the algorithm programmed to weigh,职业危害at work - in case of not having this方案its use to direct工作者应当多次。具体来说,算法必须是透明的,适应工人的实际能力,必须为工人留下一定的自主边际,并尊重他们的隐私。In short, the algorithm必须评估任何element that a risk to the工人安全和健康的姿势。为此,有人认为,由技术人员进行的强制性风险评估应集中于算法的编程,以便在工作方向的决策中尊重它。
本文章由计算机程序翻译,如有差异,请以英文原文为准。
求助全文
约1分钟内获得全文 去求助
来源期刊
自引率
0.00%
发文量
0
期刊最新文献
Work from/for Home: Recommendations to Ease Post-Pandemic Multiple Burden on Women Teleworking in the Aftermath of the Covid-19 Pandemic: Enabling Conditions for a Successful Transition A Summary of the Statistical Aspects of the Procedures for Resolving Potential Employment Discrimination Recently Issued by the Office of Federal Contract Compliance Along with a Commentary Creative Labour in the Era of Covid-19: The Case of Freelancers Non-Competes and Other Contracts of Dispossession
×
引用
GB/T 7714-2015
复制
MLA
复制
APA
复制
导出至
BibTeX EndNote RefMan NoteFirst NoteExpress
×
×
提示
您的信息不完整,为了账户安全,请先补充。
现在去补充
×
提示
您因"违规操作"
具体请查看互助需知
我知道了
×
提示
现在去查看 取消
×
提示
确定
0
微信
客服QQ
Book学术公众号 扫码关注我们
反馈
×
意见反馈
请填写您的意见或建议
请填写您的手机或邮箱
已复制链接
已复制链接
快去分享给好友吧!
我知道了
×
扫码分享
扫码分享
Book学术官方微信
Book学术文献互助
Book学术文献互助群
群 号:481959085
Book学术
文献互助 智能选刊 最新文献 互助须知 联系我们:info@booksci.cn
Book学术提供免费学术资源搜索服务,方便国内外学者检索中英文文献。致力于提供最便捷和优质的服务体验。
Copyright © 2023 Book学术 All rights reserved.
ghs 京公网安备 11010802042870号 京ICP备2023020795号-1