
Es gibt ein prominentes philosophisches Gedankenspiel. Ein Zug rollt hierbei auf eine Weichenstellung zu und er kann nicht bremsen. Auf der einen Seite, die im aktuellen Moment eingestellt ist, droht er mit einem anderen Personenzug zusammenzustoßen. Die Menschen in diesem Zug werden potenziell sterben. Die Weiche kann jedoch umgestellt werden. Auf der anderen Seite ist kein Personenzug, dafür aber ein einzelnes spielendes Kind.
Ist Nichtstun schon töten?
Nichtstun würde also bedeuten, das Geschehen seinem Lauf zu lassen. Die Züge würden aufeinanderprallen. Vielleicht stirbt niemand, vielleicht nur ein einzelner, vielleicht zweihundert Menschen. Die Weiche umzustellen, um diesem Schicksal zu entgehen, würde bedeuten aktiv ein Kind zu opfern.
Die moralische Frage in diesem Gedankenspiel ist offensichtlich. Was ist Töten? Bedeutet Nichtstun schon töten oder ist es die aktive Entscheidung und Inkaufnahme ein Leben zu nehmen? Sehr viele Menschen könnten diese Frage nicht ohne Weiteres beantworten. Die Moral stößt hier an ihre Grenzen. Doch was könnte künstliche Intelligenz daran verändern?
Künstliche Intelligenz zur Entlastung des menschlichen Gewissens
Die Idee ist offensichtlich. Könnte künstliche Intelligenz solche Entscheidungen treffen und moralisch abwägen, wäre die Last von den Schultern der menschlichen Moral genommen. Dass in jedem Fall natürlich trotzdem Menschen sterben würde, wäre leicht der Maschine in die Schuhe zu schieben. Einem Ding, das nicht zur Verantwortung gezogen werden könnte, jedoch in der Verantwortung von den menschlichen Erfindern steht. Und damit wird es dann auch doch wieder kompliziert.
Forscher und Forscherinnen rund um die Entwicklung künstlicher Intelligenz beschäftigen sich dennoch schon lange mit der Frage nach moralischen Entscheidungen. Einem Forscherteam unter der Leitung von Sophie Jentzsch im Rahmen einer Studie der Universität Darmstadt ist es bereits gelungen eine “Moral Choice Machine” zu entwickeln. Dabei ging es jedoch vornehmlich darum zu beweisen, dass eine künstliche Intelligenz überhaupt in der Lage ist, Moral zu erlernen.
Grenzen der künstlichen Intelligenz: Letztlich ist es eben doch der Mensch
Die Ausgangslage war dennoch natürlich menschengemacht. Die Forscher und Forscherinnen haben zunächst definiert, was gut und was böse ist. Diese Informationen wurde dann in die künstliche Intelligenz hineinprogrammiert. Anschließend war die Maschine, im Unterschied zu kollaborierende Roboter, fähig, simple moralische Entscheidungen zu treffen, die sich jedoch vornehmlich um solch banale Regeln wie „du darfst nicht töten“ drehten.
Das Problem dabei ist jedoch, dass die von Menschen vorproduzierten Regeln und Texte, die der künstlichen Intelligenz gefüttert werden, von Stereotypen, Klischees und Machtstrukturen durchzogen sind. Diese werden von der künstlichen Intelligenz schlicht übernommen und reproduziert – genauso wie die daraus resultierenden Entscheidungen.
Dementsprechend sind die moralischen Überlegungen der KI lediglich simuliert und vom menschlichen Bewusstsein abgeleitet. Es hat zudem einen direkten Einfluss, wer eine künstliche Intelligenz programmiert, welche Informationen dieser gefüttert werden und wie. Die Idee einer vom Menschen unabhängigen, möglicherweise ihm sogar übergeordneten, KI, die selbstständig moralische Entscheidung trifft ist also zum jetzigen Zeitpunkt utopisch.
Schlussfolgernd ist eine KI also nicht fähig echte moralische Entscheidungen zu treffen. Lediglich das menschliche Gewissen wird möglicherweise ein wenig erleichtert, wenn eine Maschine die überwältigende Frage übernimmt, ob Nichtstun dasselbe ist wie Töten.
Neueste Kommentare
24. April 2025
24. April 2025
18. April 2025
15. April 2025
14. April 2025
14. April 2025