Jump to content

Künstliche Intelligenz im Lichte des christlichen Glaubens


Danny_S.

Recommended Posts

Die Entwicklung auf dem Feld der KI schreitet immer weiter voran.

Wenn Maschinen über ein Selbstbewusstsein verfügen würden, müsste man ihnen dann nicht auch Personalität und damit eine Würde zuschreiben?

Wie lässt sich nachweisen, ob eine Erste-Person-Perspektive, ein "subjetives Innenleben" vorhanden ist?

Stellen wir uns vor, man würde einen hochkomplexen Comuter bauen, der auf jede vom Menschen gestellte Frage einen semantisch richtigen Satz gibt, müsste man ihn dann nicht wie einen Menschen behandeln?

OK, spätestens bei einer Ganzkörpertaufe würde man feststellen, dass es sich um keinen Menschen, sondern um eine Maschine handelt. 😄

Trotzdem ein spannendes Thema, wie ich finde.

bearbeitet von Danny_S.
Link zu diesem Kommentar
Auf anderen Seiten teilen

Und als Empfehlung: Der Fundamentaltheologe Alexander Loichinger beschäftigt sich als einer der immer noch eher wenigen Theologen mit den Auswirkungen von Künstlicher Intelligenz auf Theologie und Gesellschaft. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Stunden schrieb Danny_S.:

Wenn Maschinen über ein Selbstbewusstsein verfügen würden, müsste man ihnen dann nicht auch Personalität und damit eine Würde zuschreiben?

 

Ja, aber die Frage ist so hypothetisch, dass sie eigentlich gegenstandslos ist.

 

Hierzu hat beispielsweise Searle alles Wesentliche gesagt. Computer sind so definiert, dass sie Symbole nach rein formalen, "syntaktischen" Regel bearbeiten. Wenn an einer bestimmten Stelle etwa eine "0" steht, wird der Computer diese vielleicht überschreiben und durch eine "1" ersetzen. Alles, was hier passiert, kann auch mithilfe einer sog. "Turing-Maschine" geleistet werden.

Ein inhaltliches, "semantisches" Verständnis spielt bei der Befolgung der formellen, "syntaktischen" keine Rolle. Und das hat auch nichts mit dem Stand der Entwicklung von Computern zu tun, sondern mit ihrer Funktionsweise.

 

Man könnte das (um mich wieder auf Searle zu beziehen) mit einem Raum illustrieren, in dem ein Mann sitzt, der kein Wort Chinesisch spricht, der in schriftlicher Form jedoch Fragen auf Chinesisch gestellt bekommt. Dank eines umfassenden Nachschlagewerkes und großer Körbe mit Schriftzeichen gelingt es ihm, jeweils die passenden Zeichen ("Antworten") herauszugeben. Ein Außenstehende würde meinen, dass der Mann in dem Raum sehr gut Chinesisch spricht und genau weiß, was er tut. Der Mann drinnen hat aber wie gesagt nicht den leisesten Dunst, was die Symbole, die man ihm gibt oder die er nach außen reicht ("Fragen und Antworten") inhaltlich bedeuten.

 

Die obige Charakterisierung und das Gedankenexperiment mit dem chinesischen Raum sind übrigens eher noch großzügig. Denn ein Computer versteht nicht nur keine Inhalte ("Semantik"), sondern auch keine formale Regeln bzw. Syntax. Es ist der Mensch, der dem Input, dem Output und den internen Prozessen jeweils eine Bedeutung zuordnet. Der Computer selbst ist einfach eine physikalische Maschine, die sich zwar hinsichtlich ihrer Leistungsfähigkeit, nicht aber grundsätzlich von einer mechanischen Rechenmaschine unterscheidet und genau so wenig wie diese weiß, was er "tut".

 

Man kann natürlich - abhängig von der Auffassung des Geistes, die man hat - dennoch spekulieren, dass es irgendwann gelingen mag, "denkende Maschinen" zu konstruieren. Aber wenn schon müssten da dann  andere Prinzipien im Spiel sein. Eine Turing-Maschine oder etwas, was zu ihr funktional äquivalent ist (und das ist jeder Computer, den wir kennen), würde da nicht ausreichen.

 

Das ist übrigens beim fiktiven Androiden Data (von @rince erwähnt) auch nicht anders, wenn ich das noch richtig im Kopf habe. Data hat Bewusstsein, weil er ein spezielle konstruiertes "positronisches" Gehirn hat, und nicht weil sein Gehirn ein normaler, aber leistungsfähiger und softwaremäßig gut programmierter Computer wäre.

bearbeitet von iskander
Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 23.3.2023 um 12:43 schrieb Danny_S.:

Die Entwicklung auf dem Feld der KI schreitet immer weiter voran.

Wenn Maschinen über ein Selbstbewusstsein verfügen würden, müsste man ihnen dann nicht auch Personalität und damit eine Würde zuschreiben?

Wie lässt sich nachweisen, ob eine Erste-Person-Perspektive, ein "subjetives Innenleben" vorhanden ist?

Stellen wir uns vor, man würde einen hochkomplexen Comuter bauen, der auf jede vom Menschen gestellte Frage einen semantisch richtigen Satz gibt, müsste man ihn dann nicht wie einen Menschen behandeln?

OK, spätestens bei einer Ganzkörpertaufe würde man feststellen, dass es sich um keinen Menschen, sondern um eine Maschine handelt. 😄

Trotzdem ein spannendes Thema, wie ich finde.

 

Was einer KI fehlt, sind Emotionen. Der Mensch entwickelt sich im Laufe seines Lebens von einem 'emotionalem' zu einem 'auch vernunftbegabtem' Wesen. Emotionen machen immer noch den weitaus größten Teil seines Wesens aus, auch wenn wir oft meinen, unsere Entscheidungen wären ach so rational, es sind immer Emotionen, die unsere Wahrnehmung der Empfindungen prägen. Wahrnehmung ist subjektiv, Empfindung ein objektiver Sinnesreiz. (Das ist die psychologische Definition, auch wenn es umgangssprachlich häufig nicht so verwendet wird.)

 

Die Subjektivität entsteht durch Erfahrung im Leben. Diese Lebenserfahrung, die sich in unsere Emotionen festmacht, fehlt den KIs. Während der Mensch durch diese Erfahrungen ein Selbst entwickelt, kann eine KI diesen Weg nicht gehen. Sie kann zwar lernen, aber sie lernt nicht emotionsgesteuert wie ein Mensch.

 

Zwar kann eine KI 'Emotionen' emulieren. Sie kann sicher so tun, als ob sie ein Selbst entwickelt hätte, aber nicht fühlen.

 

Daher kann sie meiner Meinung nach auch nicht das entwickeln, was wir unter Selbstbewusstsein verstehen.

 

Der Buddhismus nennt übrigens dieses Selbst eine Täuschung.

 

KIs können eine verdammt große Hilfe sein, oder ein Riesenfluch. Sie kann völlig emotionslos Zusammenhänge finden, das ist ihre Stärke. Darin kann sie uns unterstützen. Aber sie immer nur so gut, wie die Daten, die sie zur Verfügung hat. Aber wer überwacht und bewertet die Daten? In Zeiten von Fake-News kann das ganz lustig werden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung jetzt entfernen

  Only 75 emoji are allowed.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Neu erstellen...