Etyka sztucznej inteligencji
Informacje ogólne
Kod przedmiotu: | 3800-ESI24-BE-S |
Kod Erasmus / ISCED: |
08.1
|
Nazwa przedmiotu: | Etyka sztucznej inteligencji |
Jednostka: | Wydział Filozofii |
Grupy: |
Przedmioty do wyboru, bioetyka, studia stacjonarne, drugiego stopnia |
Punkty ECTS i inne: |
3.00
|
Język prowadzenia: | polski |
Rodzaj przedmiotu: | seminaria monograficzne |
Założenia (opisowo): | Znajomość angielskiego umożliwiająca czytanie ze zrozumieniem literatury naukowej. |
Skrócony opis: |
Czy sztuczna inteligencja jest rasistą? Czy problem dyskryminacji algorytmicznej można rozwiązać poprzez mierzalne metryki sprawiedliwości? Czy AI narusza prawa autorskie innych twórców? Czy chatbot może zastąpić przyjaciela? Kiedy wyłączenie maszyny byłoby morderstwem? Celem zajęć jest omówienie wybranych etycznych wyzwań związanych z dynamicznym rozwojem sztucznej inteligencji. Przedmiotem dyskusji będą zarówno aktualne, najbardziej palące społeczne problemy związane z rozwojem AI, jak i fundamentalne, od dawna dyskutowane, filozoficzne pytania etyki AI. |
Pełny opis: |
Czy sztuczna inteligencja jest rasistą? Czy problem dyskryminacji algorytmicznej można rozwiązać poprzez mierzalne metryki sprawiedliwości? Czy AI narusza prawa autorskie innych twórców? Czy chatbot może zastąpić przyjaciela? Kiedy wyłączenie maszyny byłoby morderstwem? Celem zajęć jest omówienie wybranych etycznych oraz społecznych wyzwań związanych z dynamicznym rozwojem sztucznej inteligencji. Przedmiotem dyskusji będą zarówno aktualne, najbardziej palące społeczne problemy związane z rozwojem AI, jak i fundamentalne, od dawna dyskutowane, filozoficzne pytania etyki AI. W czasie zajęć omówione zostaną m.in. następujące zagadnienia: - Czym jest sztuczna inteligencja? Co jest konieczne do jej powstania? - Krótko- i długoterminowe ryzyka sztucznej inteligencji - Dyskryminacja algorytmiczna - The black box problem i spór o opozycję „efektywność czy wytłumaczalność” - Value alignment i problem kontroli nad technologią - Kto odpowiada za błędy autonomicznych systemów? Problem luk w odpowiedzialności - Generatywna sztuczna inteligencja a prawa autorskie i przyszłość pracy kreatywnej - Rola etyków w projektowaniu sztucznej inteligencji - Podejście Ethics by design - Status moralny sztucznej inteligencji - Etyczny behawioryzm - Efekt Elizy i emocjonalne relacje człowieka ze sztuczną inteligencją - Przemoc symboliczna i seksroboty - Sztuczna inteligencja na wojnie – roboty bojowe i broń autonomiczna Zajęcia będą prowadzone metodą pracy w grupach, wspólnej analizy tekstu, kazusów, gier dydaktycznych oraz dyskusji. |
Literatura: |
- Kate Crawford (2024), Generative AI is guzzling water and energy, Nature 626, doi: https://doi.org/10.1038/d41586-024-00478-x - Sætra, H.S., Danaher, J. Resolving the battle of short- vs. long-term AI risks. AI Ethics (2023) - Nick Bostrom, Eliezer Yudkowsky, 2011, The Ethics of Artificial Intelligence, Cambridge Handbook of Artificial Intelligence, eds. William Ramsey and Keith Frankish, Cambridge University Press - Baker, R.S., Hawn, A. Algorithmic Bias in Education. International Journal of Artificial Intelligence in Education 32, 1052–1092 (2022). https://doi.org/10.1007/s40593-021-00285-9 - Ruha Benjamin, Race after technology, Polity Press 2019 - London A. J. (2019). Artificial Intelligence and Black-Box Medical Decisions: Accuracy versus Explainability. The Hastings Center report, 49(1), 15–21. https://doi.org/10.1002/hast.973 - Kawamleh, S. Against explainability requirements for ethical artificial intelligence in health care. AI Ethics 3, 901–916 (2023). https://doi.org/10.1007/s43681-022-00212-1 - Sven Nyholm, Artificial Intelligence, Value Alignment, and the Control Problem, Rozdział 4 [w:] This is technology ethics. An introduction. Willey Blackwell, 2023, str. 76 – 99. - Nick Bostrom, Rodzaje złośliwych usterek [w:] Superinteligencja. Scenariusze, strategie, zagrożenia, Helion, 2016, str. 179-189. - Sven Nyholm, Responsibility and Technology: Mind the Gap(s)?, Rozdział 6 [w:] This is technology ethics. An introduction. Willey Blackwell, 2023, str. 127 – 145. - Santoni de Sio, F., Mecacci, G. Four Responsibility Gaps with Artificial Intelligence: Why they Matter and How to Address them. Philosophy & Technology 34, 1057–1084 (2021). https://doi.org/10.1007/s13347-021-00450-x - Brey, P., Dainow, B. Ethics by design for artificial intelligence. AI Ethics (2023). https://doi.org/10.1007/s43681-023-00330-4 - Floridi, L. Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical. Philosophy & Technology 32, 185–193 (2019). https://doi.org/10.1007/s13347-019-00354- - Gibert, M., Martin, D. In search of the moral status of AI: why sentience is a strong argument. AI & Society 37, 319–330 (2022) - Coeckelbergh M., The Moral Standing of Machines: Towards a Relational and Non-Cartesian Moral Hermeneutics, Philosophy & Technology volume 27, pages61–77 (2014). - Danaher J. (2020), Welcoming Robots into the Moral Circle: A Defence of Ethical Behaviourism, Science and Engineering Ethics (2020) 26: 2023–2049. - Coeckelbergh M. (2010), Moral appearances: emotions, robots, and human morality, Ethics and Information Technology 12: 235–241. - Bryson, J. J. Robots Should Be Slaves. In: Y. Wilks (Ed.), Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues, Amsterdam: John Benjamins 2010. - Sparrow, R., Sparrow, L. (2006). In the hands of machines? The future of aged care. Minds and Machines, 16(2), 141–161. - Scheutz, M. (2011). “The inherent dangers of unidirectional emotional bonds between humans and social robots,” in: Robot Ethics: The Ethical and Social Implications of Robotics, eds P. Lin, G. Bekey, and K. Abney, Cambridge, MA: MIT Press, pp. 205 – 219. - Prescott, T. J., & Robillard, J. M. (2020). Are friends electric? The benefits and risks of human-robot relationships. iScience, 24(1), 101993, 1 – 11. - Weber‑Guskar E. (2021) How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners. Ethics and Information Technology 23: 601–610. - Weijers D. and Munn N., Human-AI Friendship: Rejecting the Appropriate Sentimentality Criterion, in: “Philosophy and Theory of Artificial Intelligence 2021”, ed. Vincent C. Müller, SAPERE, Springer, pp. 209 - 223. - Sparrow, R. Robots, Rape, and Representation. International Journal of Social Robotics 9, 465–477 (2017). - Richardson, K. (2016). The asymmetrical “relationship.” ACM SIGCAS Computers and Society, 45(3), 290–293. - Peter Asaro, Autonomous Weapons and the Ethics of Artificial Intelligence [w:] S. Matthew Liao (ed.), Ethics of Artificial Intelligence, Oxford University Press 2020. - Müller, Vincent C. (2016), Autonomous killer robots are probably good news, In Ezio DiNucci and Filippo Santoni de Sio (eds.), Drones and responsibility: Legal, philosophical and sociotechnical perspectives on the use of remotely controlled weapons (London: Ashgate), 67-81. Pełna lista lektur zostanie podana na pierwszych zajęciach. |
Efekty uczenia się: |
Nabyta wiedza: Po zaliczeniu przedmiotu student/ka w pogłębionym stopniu zna i rozumie: - rolę etyki i bioetyki w namyśle i badaniach nad sztuczną inteligencją, - interdyscyplinarną terminologię stosowaną w dyskusjach z zakresu etyki sztucznej inteligencji i bioetyki; - naczelne zagadnienia i problemy, a także główne stanowiska filozoficzne, podejścia normatywne oraz strategie argumentacyjne spotykane we współczesnych dyskusjach dotyczących etyki sztucznej inteligencji, - znaczenie czynników społeczno-kulturowych, prawnych i polityczno-ekonomicznych dla praktyki i rozwoju sztucznej inteligencji. Nabyte umiejętności: Po zaliczeniu przedmiotu student/ka potrafi: - identyfikować i analizować problemy i konflikty etyczne związane z rozwojem sztucznej inteligencji, - krytycznie analizować poglądy i argumenty innych autorów, w tym pozostałych uczestników zajęć, oraz zalecane lektury z zakresu tematyki seminarium; - przygotować krótką pracę pisemną z zakresu tematyki seminarium; - przygotować i wygłosić wystąpienie ustne z zakresu tematyki seminarium. Nabyte kompetencje społeczne: Po zaliczeniu przedmiotu student/ka jest gotów/gotowa do: - krytycznego oceniania pozyskiwanych informacji i odbieranych treści; - uznawania znaczenia wiedzy z zakresu etyki w rozwiązywaniu problemów, jakie rodzi sztuczna inteligencja, - rzetelnego i odpowiedzialnego rozwijania dorobku bioetyki, a zwłaszcza etyki sztucznej inteligencji, jako dziedziny teoretycznej i praktyki społecznej; - dostrzegania problemów i wyzwań etycznych związanych z własną pracą badawczą i zawodową oraz przestrzegania, rozwijania i promowania etycznych standardów tej pracy. |
Metody i kryteria oceniania: |
(1) aktywność (przygotowanie oraz konstruktywny udział w dyskusjach i zadaniach grupowych realizowanych na zajęciach) + wygłoszenie jednego, krótkiego referatu z lektury dodatkowej – 60% (2) przygotowanie (w parach lub w zespołach 3-osobowych) pracy pisemnej będącej analizą wybranego problemu, argumentu lub kazusu związanego z tematyką zajęć – 40% Dopuszczalna liczba nieobecności podlegających usprawiedliwieniu: 2 |
Zajęcia w cyklu "Semestr zimowy 2024/25" (w trakcie)
Okres: | 2024-10-01 - 2025-01-26 |
Przejdź do planu
PN WT ŚR CZ PT SEM
|
Typ zajęć: |
Seminarium, 30 godzin, 7 miejsc
|
|
Koordynatorzy: | Emilia Kaczmarek | |
Prowadzący grup: | Emilia Kaczmarek | |
Lista studentów: | (nie masz dostępu) | |
Zaliczenie: |
Przedmiot -
Zaliczenie na ocenę
Seminarium - Zaliczenie na ocenę |
Właścicielem praw autorskich jest Uniwersytet Warszawski.