Créditos ECTS Créditos ECTS: 3
Horas ECTS Criterios/Memorias Horas de Titorías: 1 Clase Expositiva: 15 Clase Interactiva: 10 Total: 26
Linguas de uso Castelán, Galego
Tipo: Materia Ordinaria Grao RD 1393/2007 - 822/2021
Departamentos: Filosofía e Antropoloxía
Áreas: Lóxica e Filosofía da Ciencia
Centro Escola Técnica Superior de Enxeñaría
Convocatoria: Primeiro semestre
Docencia: Con docencia
Matrícula: Matriculable
A materia ‘Aspectos tecnocientíficos da IA’ ten como obxectivo xeral tratar aspectos propios da computación centrada no ser humano, na súa forma de vida, valores ou compromisos, tales como a responsabilidade, a privacidade ou a valoración dos riscos existenciais dunha intelixencia artificial xeneral.
Este obxectivo global concrétase en varios subobxectivos.
O primeiro deles aborda a caracterización da Intelixencia artificial como tecnociencia; isto é, como unha ciencia para a tecnoloxía, onde os valores epistémicos tradicionais, como o mero coñecer, adoitan transmutarse nunha racionalidade instrumental ao servizo de obxectivos empresariais ou políticos.
O segundo tópico aborda o tema da responsabilidade da IA en termos de rendición de contas de axencias tecno-humanas, é dicir, de sistemas socio-técnicos que involucran a individuos, máquinas e institucións e onde as tarefas e obrigas están distribuídas.
O terceiro subxectivo ten que ver coa transparencia, o dereito fundamental a ter información sobre como opera un sistema de axuda á toma de decisións avanzado. Particular relevancia cobra a interpretabilidade algorítmica, que permite a súa implementación e uso, suprimindo nesgos, ofrecendo explicacións e, por tanto, facéndoa máis fiable.
De seguido, examínase o impacto da IA no emprego, que traballos desaparecerán e cales propiciará, e se as novas relacións laborais participan dun novo capitalismo ou dun capitalismo tradicional disfrazado como novidoso pola publicidade das empresas tecnolóxicas.
O seguinte subobxectivo analiza a preocupación pola privacidade, tema que non é novo, pero que se acentuou coa mediación da tecnoloxía, ao favorecer que outros individuos, corporacións ou institucións accedan a datos ou actividades privadas sen consentimento explícito. O beneficio desmedido que iso supón para algunhas compañías deu en chamarse ‘capitalismo da vixilancia’, onde, a diferenza do capitalismo clásico, os recursos non se extraen da natureza, senón da conduta humana na rede.
O penúltimo suboxectivo analiza a distinción entre invención e innovación, mostrando que non toda invención é unha innovación; só o é cando a innovación xera valor e promove transformacións sociais valiosas.
Finalmente, examínase o concepto de singularidade como crecemento acelerado da capacidade computacional que conduciría a unha descontinuidade ou superintelixencia, provocando con iso riscos existenciais que é necesario analizar e prever.
Teóricos
1. Tecnociencia e IA
2. IA responsable
3. IA equitativa, transparente, auditable e fiable
4. Automatización e emprego
5. Privacidade na interacción cos sistemas intelixentes
6. Innovación e accesibilidade
7. Singularidade e riscos existenciais dunha superintelixencia
Prácticos
Análise de casos singulares relacionados co programa teórico, como p. ex.
1. The proposal for the Dartmouth Summer Research Project on Artificial Intelligence, como exemplo de proposta tecnocientífica
2. An Investigation of the Therac-25 Accidents, como exemplo de falta de responsabilidade científica
3. Google’s Ideological Boto Chamber, como exemplo de prexuizos nun sistema IA.
4. Ethics guidelines for trustworthy AI, como exemplo de boas prácticas para unha IA fiable.
5. A ditadura dos datos. A verdadeira historia desde dentro de Cambridge Analytica, como exemplo de capitalismo da vixilancia e dos seus efectos sobre a democracia
Básica:
Birch, K., Chiappetta, M., & Artyushina, A., The problem of innovation in technoscientific capitalism: data rentiership and the policy implications of turning personal digital data into a private asset. Policy Studies, 41(5), 2020, 468–487.
Bostrom, N., Superinteligencia, caminos, peligros, estrategias Teell editorial, 2016, cap. 7-9.
Dastani, M: & Yazdanpanah, Responsibility of AI Systems, AI & Society, 2023
Deranty, JP., Corbin, T. Artificial intelligence and work: a critical review of recent research from the social sciences. AI & Soc 39, 2024, 675–691
Echeverria, J., La revolución tecnocientífica, FCE, cap. 1, 2003.
Echeverría, J., Filosofía de la innovación y valores sociales en las empresas, Ediciones Universidad de Salamanca, 2020
Felzmann, H., Fosch-Villaronga, E., Lutz, C. et al. Towards Transparency by Design for Artificial Intelligence. Sci Eng Ethics 26, 2020, 3333–3361.
Koshiyama, A. et al. Towards Algorithm Auditing: A Survey on Managing Legal, Ethical and Technological Risks of AI, ML and Associated Algorithms. SSRN Electronic Journal. 202110.2139/ssrn.3778998.
Petropoulos, Georgios. “The Impact of Artificial Intelligence on Employment.” Work in the Digital Age, edited by Max Neufeind, Jacqueline O’Reilly, and Florian Ranft, vol. 119, curis.ku.dk, 2018, pp. 119–33.
Kurzweil, R., La singularidad está cerca. Cuando los humanos transcendamos la biología. Cap. 7, 2012
Lin, Ying-Tung & Hung, Tzu-Wei & Huang, Linus. (2021). Engineering Equity: How AI Can Help Reduce the Harm of Implicit Bias. Philosophy & Technology. 34. 1-26.
Noorman, M., Computer and moral responsibility, Stanford Enciclopedia of Philosophy, 2018
Van Den Hoven, J. Information technology, privacy, and the protection of personal data. In M. J. van den Joven & J. Weckert, Information Technology and Moral Philosophy. Cambridge University Press., 2008
Weber, J.& B. Prietl, AI in the age of technoscience, On the rise of data-driven AI and its epistem-ontological foundations. The Routledge Social Science Handbook of AI, 2021
Zuboff, S., Big other: Surveillance Capitalism and the Prospects of an Information Civilization. Journal of Information Technology, 30(1), 2015, 75-89.
Complementaria:
Boden, M. A., Artificial Intelligence: A Very Short Introduction, Oxford University Press, 2018.
Dignum, V., Responsible Artificial Intelligence: How to Develop and Use AI in a Responsible Way, Springer, 2019
Dreyfus, H., A History of First Step Fallacies, Minds & Machines (2012) 22:87–99
Kurzweil, R., La singularidad está más cerca: Cuando nos fusionamos con la IA. Deusto, 2025
Pavie, X., Toward responsible innovation. Responsibility and Philosophy for a Humanely Sustainable Future. World Scientific Pub., 2021
Véliz, C., Privacidad es poder: Datos, vigilancia y libertad en la era digital. Ed. Debate, 2021
Véliz, C., The Ethics of Privacy and Surveillance. Oxfrod University Press, 2024.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. New York: PublicAffairs.
A materia contribúe ao desenvolvemento das seguintes competencias xerais e específicas recollidas na memoria do título:
Competencias básicas e xerais:
CGI - Capacidade para concibir, redactar, organizar, planificar, e desenvolver modelos, aplicacións e servizos no ámbito da intelixencia artificial, identificando obxectivos, prioridades, prazos recursos e riscos, e controlando os procesos establecidos.
CB4 - Capacidade para transmitir información, ideas, problemas e solucións a un público tanto especializado como non especializado
Competencias transversais:
TR4 - Capacidade para introducir a perspectiva de xénero nos modelos, técnicas e solucións baseadas na intelixencia artificial.
TR5 - Capacidade para desenvolver modelos, técnicas e solucións baseadas na intelixencia artificial que resulten éticas, non
discriminatorias e confiables.
TR6 - Capacidade para integrar aspectos xurídicos, sociais, ambientais e económicos inherentes á intelixencia artificial, analizando os seus impactos, e comprometéndose coa procura de solucións compatibles cun desenvolvemento sostible
Resultados da aprendizaxe:
-Entender a Intelixencia Artificial como unha tecnoloxía con forte repercusión individual, social e transxeneracional que vai máis aló dos seus desenvolvementos teóricos ou das súas aplicacións industriais.
-Adquirir os conceptos teóricos fundamentais para a avaliación das aplicacións da Intelixencia Artificial atendendo ao seu impacto nos individuos e na sociedade.
-Capacidade de realizar unha análise crítica cualitativa e cuantitativa do impacto das tecnoloxías da Intelixencia Artificial a nivel industrial e social.
- Adquirir un código de boas prácticas para o desenvolvemento das tecnoloxías da Intelixencia Artificial
O ensino constará de clases expositivas e interactivas
- As clases expositivas consistirán na explicación dos conceptos relativos a cada tema e en preguntas que suscite tal explicación. As preguntas poderán ser formuladas polo alumnado ao profesor ou viceversa, co obxectivo de fomentar a interacción e o diálogo razoado.
Competencias traballadas: CG1, CB4, TR5 e TR6
- As clases interactivas consistirán na exposición de casos prácticos que ilustren de modo paradigmático conceptos ou ideas transmitidos nas clases expositivas. O alumnado poderá expoñer, de forma individual ou en grupos reducidos, os casos expostos. Ao finalizar as sesións poderán responder a un conxunto de cuestións sobre a práctica realizada.
Competencias traballadas: CB4, TR4, TR5 e TR6.
Usarase o Campus Virtual como repositorio de contidos e tutorización virtual do alumnado. Na aula virtual da materia, o alumnado terá toda a información para o seguimento da materia.
A avaliación terá en conta o ensino expositivo e interactivo, de acordo coa seguinte proporción:
1. Probas breves ou cuestionarios sobre a materia do programa expositivo e interactivo: 40 %
2. Exame: 60 %
Para aprobar a materia os/as estudantes terán que conseguir unha nota global igual ou superior a 5 (sobre un máximo de 10 puntos) en ambas partes do programa e non ter máis de 3 faltas de asistencia á clase.
Na última clase farase un simulacro de exame como exemplo de exame final. De ser puntuado con nota 5 ou superior, quen non se presente ao exame final será cualificado con esa nota. De presentarse, será cualificado coa nota do exame final.
Obterán a cualificación de non presentado os/as estudantes que non se presenten ao exame nin realicen as probas ou cuestionarios.
Para superar a materia na segunda oportunidade o alumnado deberá realizar as tarefas non superadas na primeira oportunidade, conservándose as cualificacións do resto.
Alumnado exento de asistencia a clase: deberá presentarse ao exame final e será cualificado polo mesmo.
No caso de realización fraudulenta de exercicios ou probas, será de aplicación o recollido na normativa de avaliación do rendemento académico do alumnado e de revisión das cualificacións (https://www.xunta.gal/dog/publicados/2011/20110721/AnuncioG2018-190711-…). En aplicación da normativa da ETSE sobre plaxio (aprobada pola Xunta dá ETSE o 19/12/2019), a copia total ou parcial dalgún exercicio de prácticas ou teoría supoñerá o suspenso das dúas oportunidades do curso, coa cualificación de 0,0 en ambos os casos (https://www.usc.es/etse/files/u1/NormativaPlagioETSE2019.pdf).
- E obrigado o emprego da conta de correo electrónico rai.usc. Esta conta será necesaria para acceder a calquera dos servizos facilitados pola USC. Non se contestará ningunha comunicación realizada dende unha conta de correo electrónico allea á USC.
- Non se poderá empregar o de teléfono móbil, computadora, tablet ou aparello similar, salvo cando se use como instrumento de traballo seguindo as indicacións dadas polo/a docente, responsabilizándose o alumnado das consecuencias legais e académicas que poidan derivarse dun emprego non axeitado.
- Os materiais elaborados polo docente están protexidos pola normativa de protección da propiedade intelectual e dereitos de autor de tal xeito que non se poden divulgar ou facer accesibles sen autorización do autor
- Recoméndase facer uso da linguaxe non sexista segundo as recomendacións da USC.
-O estudantado con necesidades específicas de apoio educativo e/ou discapacidade deberá poñerse en contacto co Servizo de Participación e Inclusión Universitaria (SEPIU).
O tempo de traballo presencial da materia é de 25 horas, coa seguinte distribución:
Horas de teoría: 20h
Horas de prácticas: 5h
O tempo de estudo estimado para o alumno é de 49 horas.
- Seguimento continuo
- Acudir ás titorías se fose necesario
- Ler, imaxinar, debater, escribir
Alejandro Sobrino Cerdeiriña
Coordinador/a- Departamento
- Filosofía e Antropoloxía
- Área
- Lóxica e Filosofía da Ciencia
- Teléfono
- 881812534
- Correo electrónico
- alejandro.sobrino [at] usc.es
- Categoría
- Profesor/a: Catedrático/a de Universidade
Martes | |||
---|---|---|---|
16:30-18:30 | Grupo /CLE_01 | Galego | IA.01 |
18:30-20:00 | Grupo /CLIL_01 | Galego | IA.01 |
Mércores | |||
09:30-11:00 | Grupo /CLIL_02 | Galego | IA.13 |
15.12.2025 16:00-20:00 | Grupo /CLE_01 | IA.01 |
15.12.2025 16:00-20:00 | Grupo /CLIL_02 | IA.01 |
15.12.2025 16:00-20:00 | Grupo /CLIL_01 | IA.01 |
15.06.2026 16:00-20:30 | Grupo /CLIL_02 | IA.01 |
15.06.2026 16:00-20:30 | Grupo /CLIL_01 | IA.01 |
15.06.2026 16:00-20:30 | Grupo /CLE_01 | IA.01 |