Mostrar el registro sencillo del ítem

dc.contributor.author
Andrade Rangel, Jeremy Ricardo  
dc.date.available
2024-01-30T12:30:21Z  
dc.date.issued
2023-12  
dc.identifier.citation
Andrade Rangel, Jeremy Ricardo; Problemas filosóficos de la inteligencia artificial general: ontología, conflctos ético-políticos y astrobiología; Universidad de Sevilla; Argumentos de Razón Técnica; 26; 12-2023; 275-302  
dc.identifier.uri
http://hdl.handle.net/11336/225174  
dc.description.abstract
El presente artículo tiene como objetivo indagar en la inteligencia artificial general. Para ello, se detendrá en tres aspectos fundamentales: el ontológico, el ético-político y el astrobiológico. El propósito de este análisis está vinculado con ofrecer un estudio sistemático, filosófico y académico de estas entidades que no han sido debidamente tomadas en cuenta en lengua española. Al formar parte de los imaginarios tecnológicos contemporáneos y de múltiples investigaciones que buscan crearlas, resulta necesario ahondar en las repercusiones que podrían tener en la civilización en el futuro. Riesgos existenciales latentes, extinción humana y coexistencia tanto en la Tierra como en otros planetas habitables son algunos de los escenarios que se desprenden de estos entes. El artículo se propone abordar estos problemas para elaborar, de este modo, una filosofía de la tecnología que atienda la complejidad que representa la existencia de estos objetos técnicos.  
dc.description.abstract
This article aims to investigate artificial general intelligence. To do this, it will focus on three fundamental aspects: the ontological, the ethical-political and the astrobiological. The purpose of this analysis is linked to offering a systematic, philosophical and academic study of these entities that have not been duly taken into account in the Spanish language. Being part of contemporary technological imaginaries and multiple investigations that seek to create them, it is necessary to delve into the repercussions they could have on civilization in the future. Latent existential risks, human extinction and coexistence both on Earth and on other habitable planets are some of the scenarios that arise from these entities. The article aims to address these problems to develop, in this way, a philosophy of technology that addresses the complexity that the existence of these technical objects represents.  
dc.format
application/pdf  
dc.language.iso
spa  
dc.publisher
Universidad de Sevilla  
dc.rights
info:eu-repo/semantics/openAccess  
dc.rights.uri
https://creativecommons.org/licenses/by-nc-sa/2.5/ar/  
dc.subject
Inteligencia artificial general (IAG)  
dc.subject
Riesgos existenciales  
dc.subject
Extinción humana  
dc.subject
Astrobiología  
dc.subject
Filosofía de la tecnología  
dc.subject.classification
Filosofía, Historia y Filosofía de la Ciencia y la Tecnología  
dc.subject.classification
Filosofía, Ética y Religión  
dc.subject.classification
HUMANIDADES  
dc.title
Problemas filosóficos de la inteligencia artificial general: ontología, conflctos ético-políticos y astrobiología  
dc.title
Philosophical problems of artificial general intelligence: ontology, ethical-political conflicts and astrobiology  
dc.type
info:eu-repo/semantics/article  
dc.type
info:ar-repo/semantics/artículo  
dc.type
info:eu-repo/semantics/publishedVersion  
dc.date.updated
2024-01-29T15:33:04Z  
dc.identifier.eissn
2253-8151  
dc.journal.number
26  
dc.journal.pagination
275-302  
dc.journal.pais
España  
dc.journal.ciudad
Sevilla  
dc.description.fil
Fil: Andrade Rangel, Jeremy Ricardo. Consejo Nacional de Investigaciones Científicas y Técnicas. Centro Científico Tecnológico Conicet - Patagonia Norte; Argentina. Universidad Nacional de Río Negro. Sede Andina. Centro de Estudios en Ciencia, Tecnología, Cultura y Desarrollo; Argentina  
dc.journal.title
Argumentos de Razón Técnica  
dc.relation.alternativeid
info:eu-repo/semantics/altIdentifier/url/https://revistascientificas.us.es/index.php/argumentos/article/view/24625  
dc.relation.alternativeid
info:eu-repo/semantics/altIdentifier/doi/https://doi.org/10.12795/Argumentos/2023.i26.10