Noch ein paar Gedanken zur Philosophie von KI
Mir ist beim Schnitt der letzten Folge aufgefallen, dass ich die große, die grundsätzliche Frage gar nicht gestellt habe: Soll man KI überhaupt menschliche Arbeit machen lassen? Oder soll man es lassen? Um darüber noch einmal nachzudenken, hat auch Benjamin noch eine Sprachnachricht geschickt. Zudem denken wir mit 404 Media darüber nach, ob wir nicht auch gewisse Kompetenzen durch den Einsatz von KI verlieren.
Wollt ihr uns unterstützen? Dann gebt uns doch einen Kaffee aus! 🙂
Oder über PayPal
==== abonniert meinen Podcast =====
Ich auf Social Media:
Philosophie-Videos:
Daniel
spricht über Philosophie
Christiane
spricht über Psychologie
Zusammen mit den Host*innen von „Autonomie & Algorithmen“ spreche ich über die Vermenschlichung von KI-Systemen
Benjamin und Christiane von „Autonomie & Algorithmen“ sind zu Gast und wir fragen uns: Warum und in welcher Weise lesen wir menschliche Eigenschaften in künstliche Systeme wie etwa Large Language Models hinein. Wir klären, was der Begriff Anthropomorphisierung bedeutet, blicken in die Kultur-, Technik- und Wissenschafts-Geschichte und gehen den Psychologischen Grundlagen nach. Mit Daniel Dennetts „Intentional Stance“ stelle ich eine philosophische Theorie der Anthropomorphisierung vor und Christiane präsentiert mehrere psychologische Studien, die die Frage nach dem „Warum“ strategisch eingrenzen. Am Ende fragen wir noch nach der Moral von der Geschicht‘: Sollten KI-Systeme, Programme, Computer und Roboter menschenähnlich designet werden?
Quellen:
- Autonomie und Algorithmen
- Der Geschichte des künstlichen Menschen habe ich mich hier gewidmet
- Meine Folge zum Androiden Data
- Daniel Dennett: The Intentional Stance *
- The intentional stance in theory and practice
- Karel Capek (1922). Werstands Universal Robots. Tschechisch. Deutsche Übersetzung (gemeinfrei)
- Harald Salfellner (2019). Der Prager Golem – Jüdische Sagen aus dem Ghetto. *
- Alan Turing (1950). Computing Machinery and Intelligence. Mind: A Quarterly Review of Psychology and Philosophy, 59(236), 433-460.
- Joseph Weizenbaum (1960). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
- Valentino Braitenberg (1986). Vehicles – Experiments in Synthetic Psychology. MIT Press.
- Heider, F., & Simmel, M. (1944). An experimental study of apparent behavior. The American journal of psychology, 57(2), 243-259.
- Reeves, B., & Nass, C. I. (1996). The media equation: How people treat computers, television, and new media like real people and places. Center for the Study of Language and Information; Cambridge University Press.
- Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864–886.
- Gazzola, V., Rizzolatti, G., Wicker, B., & Keysers, C. (2007). The anthropomorphic brain: the mirror neuron system responds to human and robotic actions. Neuroimage, 35(4), 1674-1684.
- Roesler, E., Manzey, D., & Onnasch, L. (2021). A meta-analysis on the effectiveness of anthropomorphism in human-robot interaction. Science Robotics, 6(58), eabj5425.
- Mandl, S., Laß, J.S., Strobel, A. (2024). Associations Between Gender Attributions and Social Perception of Humanoid Robots. In: Camarinha-Matos, L.M., Ortiz, A., Boucher, X., Barthe-Delanoë, AM. (eds) Navigating Unpredictability: Collaborative Networks in Non-linear Worlds. PRO-VE 2024. IFIP Advances in Information and Communication Technology, vol 726. Springer, Cham.
Wollt ihr uns unterstützen? Dann gebt uns doch einen Kaffee aus! 🙂
Oder über PayPal
==== abonniert meinen Podcast =====
Ich auf Social Media:
Philosophie-Videos:
*Das ist ein Affiliate-Link: Wenn ihr das Buch kauft, bekomme ich eine winzige Provision und freue mich. Oder in Amazons Formulierung: Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.