PAAKAT: Revista de Tecnología y Sociedad

Modelos y buenas prácticas evaluativas para detectar impactos, riesgos y daños de la inteligencia artificial

Jorge Francisco Aguirre Sala

Resumen


Tomando como punto de partida el ejemplificar y reconocer los impactos, riesgos y daños causados por algunos sistemas de inteligencia artificial, y bajo el argumento de que la ética de la inteligencia artificial y su marco jurídico actual son insuficientes, el primer objetivo de este trabajo es analizar los modelos y prácticas evaluativas de los impactos algorítmicos para estimar cuáles son los más deseables. Como segundo objetivo se busca mostrar qué elementos deben poseer las evaluaciones de impacto algorítmico. La base teórica para el análisis de modelos, tomada de Hacker (2018), parte de mostrar la discriminación por falta de garantías para que los datos de entrada sean representativos, completos y depurados de sesgos, en particular del sesgo histórico proveniente de representaciones hechas por intermediarios. El diseño para descubrir el instrumento de evaluación más deseable establece una criba entre los modelos y su respectiva inclusión de los elementos presentes en las mejores prácticas a nivel global. El análisis procuró revisar todas las evaluaciones de impacto algorítmico en la literatura atingente de los años 2020 y 2021 para recabar las lecciones más significativas de las buenas prácticas de evaluación. Los resultados arrojan la conveniencia de enfocarse en el modelo del riesgo y en seis elementos imprescindibles en las evaluaciones. En las conclusiones se sugieren propuestas para transitar hacia expresiones cuantitativas de los aspectos cualitativos, a la vez que advierten de las dificultades para construir una fórmula estandarizada de evaluación. Se propone establecer cuatro niveles: impactos neutros, riesgos, daños reversibles e irreversibles, así como cuatro acciones de protección: prevención de riesgos, mitigación, reparación y prohibición.


Palabras clave


Riesgos algorítmicos; enfoques evaluativos; decisiones humanas sobre la inteligencia artificial; sectores y dominios.

Texto completo:

XML HTML PDF PDF_English (English)

Referencias


Ada Lovelace Institute & AI Now Institute and Open Government Partnership. (2021). Algorithmic Accountability for the Public Sector. Ada Lovelace Institute. https://www.opengovpartnership.org/wp-content/uploads/2021/08/algorithmic-accountability-public-sector.pdf

Aizenberg, E. & Van Den Hoven, J. (2020). Designing for human rights in AI. Big Data & Society, 7(2), 1-14. https://doi.org/10.1177/2053951720949566

Andrade, N. & Kontschieder, V. (2021). AI Impact Assessment: A Policy Prototyping Experiment. Open Loop. http://dx.doi.org/10.2139/ssrn.3772500

Argelich, C. (2020). Smart Contracts O Code Is Law. InDret, (2), 1-41. https://doi.org/10.31009/InDret.2020.i2.01

Cortina, A. (2019). Ética de la inteligencia artificial. Anales de la Real Academia de Ciencias Morales y Políticas, (96), 379-394. https://www.racmyp.es/docs/anales/a96-24.pdf

Dalli, H. (2021). Artificial intelligence act. European Parliament, European Parliamentary Research Service. https://www.europarl.europa.eu/RegData/etudes/BRIE/2021/694212/EPRS_BRI(2021)694212_EN.pdf

Dastin, J. (10 de octubre de 2018). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

De Cremer, D. y Kasparov, G. (2022). The ethical AI—paradox: why better technology needs more and not less human responsibility. AI and Ethics, (2), 1-4. https://doi.org/10.1007/s43681-021-00075-y

De Moya J-F. & Pallud, J. (2020). From panopticon to heautopticon: A new form of surveillance introduced by quantified-self practices. Information System Journal, 30(6), 940-976. https://doi.org/10.1111/isj.12284

Del Río, M. (16 de mayo de 2022). China publica código ético para regular la Inteligencia Artificial, ¿qué diría Isaac Asimov? Emprendedor. https://emprendedor.com/china-codigo-etico-regular-inteligencia-artificial-leyes-robotica-isaac-asimov/

European Union, Agency for Fundamental Rights. (2020). Getting the future right. Artificial Intelligence and Fundamental Rights. Publications Office of the

European Union. https://doi.org/10.2811/774118

European Union, European Commission. (2021a) Annexes accompanying the Proposal for a Regulation of the European Parliament and of the Council. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. European Commission. https://eur-lex.europa.eu/resource.html?uri=cellar:0694be88-a373-11eb-9585-01aa75ed71a1.0001.02/DOC_2&format=PDF

European Union, European Commission (2021b). Commission staff working document impact assessment. Accompanying the Proposal for a Regulation of the

European Parliament and of the Council. Laying down harmonised rules on artificial intelligence (artificial intelligence act) and amending certain union legislative acts. European Commission. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021SC0084&qid=1619708088989

Expert Group on Architecture for AI Principles to be Practiced. (2021). AI Governance in Japan Ver. 1.0. Ministry of Economy, Trade and Industry. https://www.meti.go.jp/press/2020/01/20210115003/20210115003-3.pdf

Gobierno de México. (2018). Principios y guía de análisis de impacto para el desarrollo y uso de sistemas basados en inteligencia artificial en la administración pública federal. Secretaría de la Función Pública. https://www.gob.mx/cms/uploads/attachment/file/

/Consolidado_Comentarios_Consulta_IA__1_.pdf

Golbin, I. (28 de octubre de 2021). Algorithmic impact assessments: What are they and why do you need them? PricewaterhouseCoopers US. https://www.pwc.com/us/en/tech-effect/ai-analytics/algorithmic-impact-assessments.html

Government of Canada. (2021). Algorithmic Impact Assessment Tool. Government of Canada. https://www.canada.ca/en/government/system/digital-government/digital-government-innovations/responsible-use-ai/algorithmic-impact-assessment.html

Hacker, P. (2018). Teaching fairness to artificial intelligence: existing and novel strategies against algorithmic discrimination under EU Law. Common Market Law Review, 55(4), 1143-1183. https://ssrn.com/abstract=3164973

Hartmann, K. & Wenzelburger, G. (2021). Uncertainty, risk, and the use of algorithms in policy decisions: a case study on criminal justice in the USA. Policy Sciences, 54, 269-287. https://doi.org/10.1007/s11077-020-09414-y

Henz, P. (2021). Ethical and legal responsibility for Artificial Intelligence. Discover Artificial Intelligence, 1(2), 1-5 https://doi.org/10.1007/s44163-021-00002-4

Honda-Robotics. (s.f). ASIMO. El robot humanoide más avanzado del mundo. Honda. https://www.honda.mx/asimo

Lauer, D. (2021). You cannot have AI ethics without ethics. AI and Ethics, 1(1), 21-25. https://doi.org/10.1007/s43681-020-00013-4

Martínez-Ramil, P. (2021). Is the EU human rights legal framework able to cope with discriminatory AI? IDP. Revista de internet, derecho y política, (34), 1-14. https://doi.org/10.7238/idp.v0i34.387481

Metcalf, J.; Moss, E.; Watkins, E. A.; Singh, R. & Elish, M. C. (2021). Assembling Accountability. Algorithmic Impact Assessment for the Public Interest. & Society Research Institute. https://datasociety.net/wp-content/uploads/2021/06/Assembling-Accountability.pdf

Organización para la Cooperación y el Desarrollo Económicos (OECD.AI). (2019). OECD AI Policy Observatory. OECD. https://oecd.ai/en/dashboards/policy-initiatives/2019-data-policyInitiatives-24186

Organización para la Cooperación y el Desarrollo Económicos (OECD.AI). (2021). OECD AI Policy Observatory. OECD. https://oecd.ai/en/dashboards

Organización de las Naciones Unidas para la Educación, la Ciencias y la Cultura (UNESCO). (2021). Proyecto de texto de la recomendación sobre la ética de la inteligencia artificial. En Informe de la Comisión de Ciencias sociales y Humanas (pp. 13-42). UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000379920_spa

Ruckenstein, M. & Schüll, N. (2017). The Datafication of health. Annual Review of Anthropology, 46(1), 261-278. https://doi.org/10.1146/annurev-anthro-102116-041244

Unión Europea. (2020). Libro blanco sobre la inteligencia artificial. Un enfoque europeo orientado a la excelencia y la confianza. Unión Europea. https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf

Vought, R. (2020). Guidance for Regulation of Artificial Intelligence Applications. Executive Office of the President, Office of Management and Budget. https://trumpwhitehouse.archives.gov/wp-content/uploads/2020/11/M-21-06.pdf

Yeung, K. (2019). Responsibility and AI. A study of the implications of advanced digital technologies (including AI systems) for the concept of responsibility within a human rights framework. Council of Europe. https://rm.coe.int/responsability-and-ai-en/168097d9c5

Zhang, M. (1 de junio de 2015). Google Photos Tags Two African-Americans As Gorillas Through Facial Recognition Software. Forbes. https://www.forbes.com/sites/mzhang/2015/07/01/google-photos-tags-two-african-americans-as-gorillas-through-facial-recognition-software/?sh=26a7b-5f4713d097d9c5




DOI: http://dx.doi.org/10.32870/Pk.a12n23.742



PAAKAT: Revista de Tecnología y Sociedad, año 14, número 27, septiembre 2024- febrero de 2025, es una publicación electrónica semestral editada por la Universidad de Guadalajara, a través de Centro Universitario de Guadalajara. Calle Guanajuato. Núm. 1045; Guadalajara, Jalisco, México. Tels. 33 31 34 22 22. Dirección electrónica: http://www.udgvirtual.udg.mx/paakat/index.php/paakat. Correo electrónico: paakat@udgvirtual.udg.mx. Editor responsable: Dr. Lázaro Marcos Chávez Aceves. Número de Reserva de Derechos al Uso Exclusivo del Título de la versión electrónica: 04-2011-111117155600-203, e-ISSN: 2007-3607, otorgados por el Instituto Nacional del Derecho de Autor. Responsable de la última actualización de este número: Centro Universitario de Guadalajara, Lázaro Marcos Chávez Aceves. Fecha de la última modificación: 1 de septiembre de 2024.

Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación.

 

 

 

 

 

 



Esta obra está bajo Licencia Creative Commons Atribución-NoComercial 4.0 Internacional.