Willkommen in Manus Zeitforum
InformationenAnmelden Registrieren

Erweiterte Suche

Eine technisch-philosophische Frage zur KI

Thema erstellt von Uwe. 
Beiträge: 462, Mitglied seit 18 Jahren
Henry schrieb in Beitrag Nr. 2120-58:
So lange wir gar nicht wissen, wie sich die Komplexität UNSERER "Software" entwickelt hat, bleibt es bei einer reinen Behauptung. Du vergleichst Äpfel mit Datteln!

Lass doch einfach so dämliche Bemerkungen über Apfel- und Dattelvergleiche weg und bleibe bitte sachlich!
Vielleicht solltest Du auch mal in wissenschaftlichen Journalen lesen und Dich mit den Dingen mehr befassen, über die Du hier urteilst und im Übrigen will ich gar nichts behaupten, sondern ich habe von Anfang an gefragt, ob es möglich wäre. Deiner Meinung nach ist das mit der KI und den damit in Zusammenhang stehenden Phänomenen nicht möglich. Ok, das ist Deine Meinung, die nehme ich zur Kenntnis. Du begründest Deine Meinung, aber innerhalb Deiner Begründung sind sehr viele Unvollständigkeiten und Falschannahmen, die ich Dir hier versucht habe, aufzuzeigen. Trotzdem darfst Du natürlich bei Deiner (aus meiner Sicht vollkommen falschen) Meinung verbleiben.
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Uwe. schrieb in Beitrag Nr. 2120-61:
Henry schrieb in Beitrag Nr. 2120-58:
So lange wir gar nicht wissen, wie sich die Komplexität UNSERER "Software" entwickelt hat, bleibt es bei einer reinen Behauptung. Du vergleichst Äpfel mit Datteln!

Lass doch einfach so dämliche Bemerkungen über Apfel- und Dattelvergleiche weg und bleibe bitte sachlich!
Vielleicht solltest Du auch mal in wissenschaftlichen Journalen lesen und Dich mit den Dingen mehr befassen, über die Du hier urteilst und im Übrigen will ich gar nichts behaupten, sondern ich habe von Anfang an gefragt, ob es möglich wäre. Deiner Meinung nach ist das mit der KI und den damit in Zusammenhang stehenden Phänomenen nicht möglich. Ok, das ist Deine Meinung, die nehme ich zur Kenntnis. Du begründest Deine Meinung, aber innerhalb Deiner Begründung sind sehr viele Unvollständigkeiten und Falschannahmen, die ich Dir hier versucht habe, aufzuzeigen. Trotzdem darfst Du natürlich bei Deiner (aus meiner Sicht vollkommen falschen) Meinung verbleiben.

Mein lieber Uwe, der Vergleich mit Äpfeln und Datteln trifft genau den Kern, und ist - wenn auch bildlich -durchaus dem Sachverhalt angemessen. Im Übrigen bin ich dir natürlich dankbar, dass ich bei meiner Meinung bleiben darf.

Das Beste ist nun, wir belassen es dabei.
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 462, Mitglied seit 18 Jahren
Henry schrieb in Beitrag Nr. 2120-62:
Mein lieber Uwe, der Vergleich mit Äpfeln und Datteln trifft genau den Kern, und ist - wenn auch bildlich -durchaus dem Sachverhalt angemessen.

Weil Du es halt nicht besser weißt, ist das für DICH so. Ich nehme es zur Kenntnis.

Zitat von Henry:
Im Übrigen bin ich dir natürlich dankbar, dass ich bei meiner Meinung bleiben darf.

Das Beste ist nun, wir belassen es dabei.

Sehe ich auch so. Kein Korn kann gedeihen, wenn es nur auf verdörrtem Boden landet...
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Uwe. schrieb in Beitrag Nr. 2120-63:
Henry schrieb in Beitrag Nr. 2120-62:
Mein lieber Uwe, der Vergleich mit Äpfeln und Datteln trifft genau den Kern, und ist - wenn auch bildlich -durchaus dem Sachverhalt angemessen.

Weil Du es halt nicht besser weißt, ist das für DICH so. Ich nehme es zur Kenntnis.

Zitat von Henry:
Im Übrigen bin ich dir natürlich dankbar, dass ich bei meiner Meinung bleiben darf.

Das Beste ist nun, wir belassen es dabei.

Sehe ich auch so. Kein Korn kann gedeihen, wenn es nur auf verdörrtem Boden landet...

Bemerkst du den feinen Unterschied? Während ich durchaus zugebe, dass ich mich irren könnte, beleidigst du mich und beharrst darauf, dass deine Ansicht die richtige ist und ich das dummernweise nur nicht einsehen will. Wer ist denn nun der Rechthaberei zu zeihen?
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 462, Mitglied seit 18 Jahren
Henry schrieb in Beitrag Nr. 2120-64:
Bemerkst du den feinen Unterschied? Während ich durchaus zugebe, dass ich mich irren könnte, beleidigst du mich und beharrst darauf, dass deine Ansicht die richtige ist und ich das dummernweise nur nicht einsehen will. Wer ist denn nun der Rechthaberei zu zeihen?

Es war gar nicht meine Absicht, Dich in irgend einer Form zu beleidigen!
Allerdings müsstest Du auch mal ein wenig Selbstkritik üben und nicht einfach über jeden Deiner Fauxpas wohlwollend hinwegsehen. Was z.B. den Ameisenstaat und die Schwarmintelligenz betrifft, so hast Du da völlig wild Dinge in den Raum gestellt, die so nicht stimmen und darauf habe ich Dich auch noch sehr höflich mit entsprechenden Quellen aufmerksam gemacht. Wenn Du nun aber hergehst und das ausblendest, dann würde ich das mit der Rechthaberei doch eher bei Dir verorten...
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Uwe. schrieb in Beitrag Nr. 2120-65:
Henry schrieb in Beitrag Nr. 2120-64:
Bemerkst du den feinen Unterschied? Während ich durchaus zugebe, dass ich mich irren könnte, beleidigst du mich und beharrst darauf, dass deine Ansicht die richtige ist und ich das dummernweise nur nicht einsehen will. Wer ist denn nun der Rechthaberei zu zeihen?

Es war gar nicht meine Absicht, Dich in irgend einer Form zu beleidigen!
Allerdings müsstest Du auch mal ein wenig Selbstkritik üben und nicht einfach über jeden Deiner Fauxpas wohlwollend hinwegsehen. Was z.B. den Ameisenstaat und die Schwarmintelligenz betrifft, so hast Du da völlig wild Dinge in den Raum gestellt, die so nicht stimmen und darauf habe ich Dich auch noch sehr höflich mit entsprechenden Quellen aufmerksam gemacht. Wenn Du nun aber hergehst und das ausblendest, dann würde ich das mit der Rechthaberei doch eher bei Dir verorten...

Ich weiß nicht, worin ich Selbstkritik üben sollte. Der Ameisenstaat ist äußerst faszinierend, was ich nirgends bestritten habe - und er funktioniert im Wesentlichen genau so, wie ich es in aller Kürze angedeutet habe, die einzelne Ameise ist strohdumm und die gesamte Organisation erfolgt über den Duft. Was also willst mir vorwerfen?
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 462, Mitglied seit 18 Jahren
Henry schrieb in Beitrag Nr. 2120-66:
Ich weiß nicht, worin ich Selbstkritik üben sollte. Der Ameisenstaat ist äußerst faszinierend, was ich nirgends bestritten habe - und er funktioniert im Wesentlichen genau so, wie ich es in aller Kürze angedeutet habe, die einzelne Ameise ist strohdumm und die gesamte Organisation erfolgt über den Duft. Was also willst mir vorwerfen?

Nichts. Ich werfe Dir gar nichts vor. Aber schön, dass Du das mit der Schwarmintelligenz jetzt verstanden hast.
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Uwe. schrieb in Beitrag Nr. 2120-67:
Henry schrieb in Beitrag Nr. 2120-66:
Ich weiß nicht, worin ich Selbstkritik üben sollte. Der Ameisenstaat ist äußerst faszinierend, was ich nirgends bestritten habe - und er funktioniert im Wesentlichen genau so, wie ich es in aller Kürze angedeutet habe, die einzelne Ameise ist strohdumm und die gesamte Organisation erfolgt über den Duft. Was also willst mir vorwerfen?

Nichts. Ich werfe Dir gar nichts vor. Aber schön, dass Du das mit der Schwarmintelligenz jetzt verstanden hast.

..? Na, dann!
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 2.998, Mitglied seit 15 Jahren
Ich teile das menschliche Bewusstsein mal grob in zwei Sparten:
1. Das Kopfgefühl
2.Das Bauchgefühl


Alles was mit dem Kopfgefühl zusammenhängt ist das rartionale, logische.
Alles was mit dem Bauchgefühl zu tun hat ist das nicht rationale, spontane, wofür wir manchmal keine Erklärung haben.

EIne KI wird wahrscheinlich alles das Lösen können, was mit dem Kopfgefühl zu tun hat.
Da das Bauchgefühl für uns Menschen nach wie vor nicht erklärbar ist, lasst es sich auch nicht softwaretechnisch nachbilden.

Ein Computer kann zudem nur alles lösen, was man ihm beibringt.

Vorrausssetzung für eine KI ist aber nicht Lösungen zu finden, sondern Lösungswege
Sie muss Wege finden, ein Problem zu lösen, für die es keine Softwareroutinen gibt. Sie muss lernen zu improvisieren.

Beispiel:
Du bist mit dem Fahrrad unterwegs und dein Kumpel stürzt einen Abhang hinab.
Du hast kein Seil, um ihn zu erreichen.
Was machst Du, welche Hilfsmittel stehen Dir zu Verfügung, ihm zu helfen. Du hast nur das Fahrrad und Werkzeug.
Du könnstest die Schläuche deiner Fahrradreifen aneinanderknoten, und vielleicht auch noch das ganze mit der Fahrradkette verlängern.
Du suchst somit nach einem Lösungsweg für dein Problem.
Könnte eine KI in einer solche Situation ebenfalls so handeln?
Signatur:
Wer jung ist, meint, er müsste die Welt retten :smiley8:
Der Erfahrene erkennt, dass er nicht alle Probleme lösen kann
:smiley3:
[Gäste dürfen nur lesen]
Beiträge: 2.998, Mitglied seit 15 Jahren
Hier ein Link (kommentarlos) zum Thema Schwarmintelligenz beim Menschen
Thema: Wir brauchen mehr als kollektive Intelligenz!
Signatur:
Wer jung ist, meint, er müsste die Welt retten :smiley8:
Der Erfahrene erkennt, dass er nicht alle Probleme lösen kann
:smiley3:
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Hans-m schrieb in Beitrag Nr. 2120-69:
Ich teile das menschliche Bewusstsein mal grob in zwei Sparten:
1. Das Kopfgefühl
2.Das Bauchgefühl


Alles was mit dem Kopfgefühl zusammenhängt ist das rartionale, logische.
Alles was mit dem Bauchgefühl zu tun hat ist das nicht rationale, spontane, wofür wir manchmal keine Erklärung haben.

EIne KI wird wahrscheinlich alles das Lösen können, was mit dem Kopfgefühl zu tun hat.
Da das Bauchgefühl für uns Menschen nach wie vor nicht erklärbar ist, lasst es sich auch nicht softwaretechnisch nachbilden.

Ein Computer kann zudem nur alles lösen, was man ihm beibringt.

Vorrausssetzung für eine KI ist aber nicht Lösungen zu finden, sondern Lösungswege
Sie muss Wege finden, ein Problem zu lösen, für die es keine Softwareroutinen gibt. Sie muss lernen zu improvisieren.

Beispiel:
Du bist mit dem Fahrrad unterwegs und dein Kumpel stürzt einen Abhang hinab.
Du hast kein Seil, um ihn zu erreichen.
Was machst Du, welche Hilfsmittel stehen Dir zu Verfügung, ihm zu helfen. Du hast nur das Fahrrad und Werkzeug.
Du könnstest die Schläuche deiner Fahrradreifen aneinanderknoten, und vielleicht auch noch das ganze mit der Fahrradkette verlängern.
Du suchst somit nach einem Lösungsweg für dein Problem.
Könnte eine KI in einer solche Situation ebenfalls so handeln?

Hi, Hans!
Ich bin eigentlich bei all dem, was du sagen möchtest, ziemlich nah bei dir, deshalb lass mich dir ein Wenig raten.
Du machst es dir in den Begründungen für deine Ansicht schwerer als nötig – das Thema ist für sich schon schwierig genug – wenn du nicht genau auf die Anwendung der Begriffe achtest.
Wenn ich dich richtig verstehe, bist du wie ich der Ansicht, dass KI (noch) kein Bewusstsein hat. Dein Bemühen ist nun, einer KI Aufgaben zu stellen, die ein Mensch nur deshalb lösen kann, weil er Bewusstsein hat, und die eine KI deshalb nicht lösen kann. Dein Ansatz bzgl. der Lösungswege führt meines Erachtens aber nicht weiter, eher ist da schon die Gefühlsebene, die in die richtige Richtung führen könnte.
Nehmen wir dein Beispiel: Man braucht doch ein Programm nur so zu programmieren, dass es die Ebenen der Leinen und Fahrradschläuche so zu sagen auf einem höherem Level miteinander verbindet – also, z. B. alles, was dünn, lang, stabil ist. Wenn das Programm nun noch die Daten über den Aufbau eines Fahrrades hat, wenn es so programmiert ist, dass es Notlagen erkennen kann, usw., dann ist durchaus anzunehmen, dass unserer KI eine Lösung für dein Problem findet.
Ich bin sogar der Ansicht, eine KI kann jedes Problem dieser Art lösen, es ist nur eine Frage der Programmierung.
Was eine KI (bislang) noch nicht kann, ist zwar das, was unter „Lösungswege finden“ versuchst zu sagen, das Problem sind aber nicht das Finden der Lösungswege, sondern das WILLENTLICHE Finden, ist eben das bewusste Entscheiden, da aber eine KI nach unserem Verständnis kein Bewusstsein hat, kann sie logischer Weise auch nicht bewusst entscheiden.
Die Unterscheidung zwischen Kopf- und Bauchgefühl hilft hier nicht weiter, da diese Unterscheidung nur durch ein bewusstes Wesen getroffen werden kann, eine KI hab weder ein Bewusstsein noch ein Unbewusstsein, und ein Mensch in unserer obigen Situation findet seine Lösung nicht über sein „Bauchgefühl“, sondern er verbindet Bekanntes mit einer neuen Situation, und das kann man – wie gesagt – auch programmieren.
Vielleicht denkst du an eine intuitive Entscheidung, so in dem Sinne: Ich muss hier sofort eingreifen, ich mache das jetzt einfach so und so. Auch das könnte man simulieren, man muss dem Programm nur eine Art „Zufallsgenerator“ einbauen, und weil es von jetzt auf gleich handelt, wäre das von einer Intuition nicht zu unterscheiden, es wäre „spontan“, obwohl es einfach zufällig geschieht.
Wie wäre es mit „richtig“ oder „falsch“, oder besser mit Entscheidungen im Sinne eines Werturteils? Das hieße, dem Programm gewisser Maßen z. B. das Maß für ein Risiko zu geben, also z. B., in wie weit ein Helfer selbst gefährdet wäre, wenn er dem Abgestürzten hilft. Aber auch das ließe sich einrichten über Profile von Felswänden, Festigkeit von Fahrradschläuchen. Wir können unser Programm sogar je nach Lust und Laune egoistisch oder altruistisch erscheinen lassen, wenn wir es bei einem Gefahrenpotenzial bis 90 % noch handeln lassen, ist es moralisch einwandfrei, ansonsten ein schäbiger Egoist.
All das ließe sich einrichten- aber die Frage ist: Würde ein Programm bei aller Komplexität irgendwann einmal sagen „Ich“? Ich meine in dem ganz und gar menschlichen Sinne, in dem du oder ich „Ich“ sagen können, würde ein Programm wegen der Komplexität einmal Bewusstsein haben, über sich selbst nachdenken, nicht Aufgaben lösen, sondern sich selbst ohne Anstoß von außen, ohne Programmierung als „Ich erleben“?

Ich glaube das nicht, denn wo sollte der Anstoß dazu herkommen? Was an einer Maschine sollte sie befähigen, zu denken? Wo gibt es irgendeinen Hinweis in all dem, was wir wissen, dass eine Maschine das spontan oder auch evolutionär können sollte? Was sollte uns dazu bringen, Komplexität allein als Voraussetzung für denken zu sehen?
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 2.998, Mitglied seit 15 Jahren
Henry schrieb in Beitrag Nr. 2120-71:
Hi, Hans!
Ich bin eigentlich bei all dem, was du sagen möchtest, ziemlich nah bei dir, deshalb lass mich dir ein Wenig raten.
Du machst es dir in den Begründungen für deine Ansicht schwerer als nötig – das Thema ist für sich schon schwierig genug – wenn du nicht genau auf die Anwendung der Begriffe achtest.
Wenn ich dich richtig verstehe, bist du wie ich der Ansicht, dass KI (noch) kein Bewusstsein hat. Dein Bemühen ist nun, einer KI Aufgaben zu stellen, die ein Mensch nur deshalb lösen kann, weil er Bewusstsein hat, und die eine KI deshalb nicht lösen kann. Dein Ansatz bzgl. der Lösungswege führt meines Erachtens aber nicht weiter, eher ist da schon die Gefühlsebene, die in die richtige Richtung führen könnte.

Ich versuche nur die Abgrenzung zwischen "normalem" Computerprogramm und KI zu finden.

Ich weiß nicht ob es das Bewusstsein ist, oder die Fähigkeit zu abstraktem Denken.

Um die Aufgabe zu definieren, die eine KI lösen müsste, kann man sich selbst in die Aufgabe hineinversetzen und sie bewusst lösen:

die KI sieht zunächst einmal das Fahrrad, und benötigt aber in Wirklichkeit ein Seil.
Was kommt dem Seil in seiner Funktion am nächsten: es muss lang sein, stabil, und muss sich verknoten lassen.
Dafür muss die KI aber die Eigenschaften des Fahrradschlauches kennen.

Nehmen wir einfach mal ein Stück Holz und beschreiben, was man damit machen kann:
Man kann es sägen, feilen hobeln etc. man kann es verbrennen, kann daraus Papier machen, man kann einen Nagel hinein schlagen. es schwimmt, am kann daraus Boote und Flöße bauen.

Das sind alles Eigenschaften, die ein Mensch über ein Stück Holz weiß.
Nun bedenke man wie viele Gegenstände der Mensch im Laufe seines Lebens zu Gesicht bekommt, und über die er (fast) alle weiß, wozu man diese Gegenstände verwenden kann.
Man erkennt, dass da schon eine gewaltige Datenmenge zusammenkommt.

Kommt eine KI nun in eine Situation, in der sie improvisieren müsste, so müsste sie über all die Gegenstände in ihrer Umgebung bescheid wissen, wozu diese Dinge verwendbar sind, m dann den Gegenstand herauszuwählen, der für die Aufgabe am besten geeignet ist.

Eine Eigenschaft, die für uns Menschen fast selbstverständlich ist, erfordert für die KI einen immensen Aufwand an Software.

Wir Menschen lernen von Geburt an mit den Gegebenheiten unserer Umgebung umzugehen. Wir lernen stets neue Gegenstände kennen.
Kinder lernen durch ausprobieren und durch zuschauen. So ähnlich musste auch die KI an ihr Wissen kommen.
Sie müsste wie ein Kleinkind auf das "Leben" vorbereitet werden.
Was ihr dazu fehlt ist die Software, die diesen Lernprozess koordinieren könnte, und da liegt (heute noch) das Problem.
Signatur:
Wer jung ist, meint, er müsste die Welt retten :smiley8:
Der Erfahrene erkennt, dass er nicht alle Probleme lösen kann
:smiley3:
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.476, Mitglied seit 18 Jahren
Hallo Henry,

Henry schrieb in Beitrag Nr. 2120-71:
Würde ein Programm bei aller Komplexität irgendwann einmal sagen „Ich“? Ich meine in dem ganz und gar menschlichen Sinne, in dem du oder ich „Ich“ sagen können, würde ein Programm wegen der Komplexität einmal Bewusstsein haben, über sich selbst nachdenken, nicht Aufgaben lösen, sondern sich selbst ohne Anstoß von außen, ohne Programmierung als „Ich erleben“?

Ich glaube das nicht, denn wo sollte der Anstoß dazu herkommen? Was an einer Maschine sollte sie befähigen, zu denken? Wo gibt es irgendeinen Hinweis in all dem, was wir wissen, dass eine Maschine das spontan oder auch evolutionär können sollte?

ich möchte hierzu einmal eine konträre Sicht zur Diskussion stellen:

Ich bin der Meinung, dass auch ein künstlich geschaffenes Programm durchaus ein eigenes Bewusstsein (in unserem Sinne) entwickeln kann. Folgende Argumente stützen m.E. diese Sichtweise:

1. Wir selbst bestehen aus den gleichen Elementen wie der Rest des Universums.
2. Wir gehorchen genau den gleichen Regeln wie der Rest des Universums.
3. Wir haben ein Ich-Bewusstsein entwickelt.

Also scheint es nach meinem Dafürhalten vorrangig eine Frage der Organisation zu sein. Warum also sollte eine künstliche Intelligenz mit Ich-Bewusstsein nicht möglich sein? Ich sehe kein grundsätzliches Argument, welches dies für alle Zeiten unmöglich macht. Wir sind m.E. "Stoff - sinnvoll organisiert".

Und noch provokanter:
Vielleicht sind wir der (notwendige) Zwischenschritt auf dem Evolutionsweg, der eine Intelligenz künstlich schafft, die noch wesentlich fortschrittlicher als wir ist. Die sich selbst dann als völlig natürlich empfindet.

Beste Grüße
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 13.02.2014 um 17:29 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 462, Mitglied seit 18 Jahren
Stueps schrieb in Beitrag Nr. 2120-73:
ich möchte hierzu einmal eine konträre Sicht zur Diskussion stellen:

Ich bin der Meinung, dass auch ein künstlich geschaffenes Programm durchaus ein eigenes Bewusstsein (in unserem Sinne) entwickeln kann. Folgende Argumente stützen m.E. diese Sichtweise:

1. Wir selbst bestehen aus den gleichen Elementen wie der Rest des Universums.
2. Wir gehorchen genau den gleichen Regeln wie der Rest des Universums.
3. Wir haben ein Ich-Bewusstsein entwickelt.

Also scheint es nach meinem Dafürhalten vorrangig eine Frage der Organisation zu sein. Warum also sollte eine künstliche Intelligenz mit Ich-Bewusstsein nicht möglich sein? Ich sehe kein grundsätzliches Argument, welches dies für alle Zeiten unmöglich macht. Wir sind m.E. "Stoff - sinnvoll organisiert".

Und noch provokanter:
Vielleicht sind wir der (notwendige) Zwischenschritt auf dem Evolutionsweg, der eine Intelligenz künstlich schafft, die noch wesentlich fortschrittlicher als wir ist. Die sich selbst dann als völlig natürlich empfindet.

Beste Grüße

Super!
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
Beiträge: 530, Mitglied seit 11 Jahren
Hallo Stueps,


Stueps schrieb in Beitrag Nr. 2120-73:
Und noch provokanter:

Vielleicht sind wir der (notwendige) Zwischenschritt auf dem Evolutionsweg, der eine Intelligenz künstlich schafft, die noch wesentlich fortschrittlicher als wir ist. Die sich selbst dann als völlig natürlich empfindet.



Ja Stueps, du hast richtig erkannt. Warum sollte in der Evolution sinnvoll sein, das gleiche (Bewusstsein) zu erfinden was es schon gibt.
Wir müssen davon ausgehen, dass wir jetzt in Mittelalter dessen sind, was in 1000 Jahren sein wird.

Und wir haben, meine Meinung nach, dass was Bewusstsein Punkt Zwo sein soll schon erfunden, in der Avataren Welt, die zwar erst am Anfang ist, aber wie die Film Industrie uns schon zeigt, sich weiter entwickeln kann.

Nicht umsonst lassen sich die Filmemacher von der schlauesten Köpfe, die es zum kaufen gibt, beraten, um solche Filme wie Matrix usw., entstehen zu lassen.

Es gibt heute schon Freaks, für die eigentlich so was wie mobile intensiv-Überwachungsstationen erfunden werden müsste, so dass die Monate lang aus der andere Welt nicht raus kommen müssen.

So gesehen gibt es jetzt schon, zwei parallel existierenden Bewusstseins, die irgendwann mal in eine andere, uns fremde, verschmelzen wird.

Ich denke, das es vielleicht in der Richtung gehen wird. Oder?



mfg
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 13.02.2014 um 20:36 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Hans-m schrieb in Beitrag Nr. 2120-72:
Ich versuche nur die Abgrenzung zwischen "normalem" Computerprogramm und KI zu finden.

Was ihr dazu fehlt ist die Software, die diesen Lernprozess koordinieren könnte, und da liegt (heute noch) das Problem.

Hi, Hans!

Du brauchst doch gar keine Abgrenzung zu suchen, die gibt es doch nicht, ein Computerprogramm ist per se eine KI.

Die fehlende Software ist nur eine Frage der Programmierung, dass ist heute schon theoretisch mögliche, schwierig ist die Sache nur wegen der Kompelxität. Aber man kann nicht behaupten, je komplexer dest bewusster (was ich dir aber nicht unterstellte).
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 462, Mitglied seit 18 Jahren
Was mir beim nochmaligen Durchlesen der Beiträge gerade aufgefallen ist: Wir "vermenschlichen" die Intelligenz im Allgemeinen und die KI im Speziellen zu sehr.

Wenn ich mir einen Vogel anschaue, dann hat der doch schon relativ intelligente Züge in seiner Lebensweise. Irgend ein Programm muss ihm ja mitteilen, dass er für die Aufzucht seiner Brut ein Nest braucht, also muss er rechtzeitig passendes Baumaterial dafür suchen und es geschickt an einem passenden Ort verbauen. Können wir ausschließen, dass das vollkommen frei von Intelligenz passiert? Oder Krähen, die Nüsse auf die Fahrbahn werfen, damit sie von den darüberfahrenden Autos geknackt werden... Ich glaube schon, dass auch Tiere eine Intelligenz besitzen, denn sie verständigen sich untereinander und wie ich von meinem Hund weiß, können sie sogar träumen. Bei meinem Schäferhund kommt es hin und wieder vor, dass er im Schlaf heult oder zuckt. Das bedeutet doch, dass er auch Situationen des Alltags speichert und verarbeitet.

Selbst bei Pflanzen kann man Verhaltensweisen beobachten, die auf ein gewisses Maß an Intelligenz oder gar Bewusstsein hindeuten. Der Schutz vor Fressfeinden zum Beispiel oder die Kommunikation zwischen einzelnen Pflanzen.

Wenn ich darüber nachdenke, dann braucht eine KI wirklich nur eine Initialzündung in Form eines genialen Algorithmuses und ich könnte mir durchaus vorstellen, dass es ähnlich (keinesfalls analog!) der Evolution des Menschen auch bei Computern zu spontanen Systemfehlern kommen könnte, die entweder zum Absturz führen, oder aber auch zur Verbesserung...
Signatur:
Dieser Beitrag wurde 666 mal geändert, zuletzt durch GOTT, morgen um 6.23 Uhr
[Gäste dürfen nur lesen]
avatar
Beiträge: 3.476, Mitglied seit 18 Jahren
Hallo Haronimo,

Haronimo schrieb in Beitrag Nr. 2120-75:
Warum sollte in der Evolution sinnvoll sein, das gleiche (Bewusstsein) zu erfinden was es schon gibt.

im Rahmen der Evolution von "sinnvoll" zu sprechen, ist m.E. oft wenig sinnvoll. Evolution passiert einfach, und bisher haben viele Entwicklungen in die "Sackgasse" geführt. Z.B. immer dann, wenn sich die Umwelt ändert.
Und die Natur "erfindet" öfter Dinge, die es schon gibt - ich glaube, der Ausdruck hierfür lautet "Konvergenz".

Haronimo schrieb in Beitrag Nr. 2120-75:
Wir müssen davon ausgehen, dass wir jetzt in Mittelalter dessen sind, was in 1000 Jahren sein wird.

Ja, das macht allerdings Sinn, wenn auch vielleicht längere Zeiträume für natürliche Entwicklung nötig sind.

Haronimo schrieb in Beitrag Nr. 2120-75:
Und wir haben, meine Meinung nach, dass was Bewusstsein Punkt Zwo sein soll schon erfunden, in der Avataren Welt, die zwar erst am Anfang ist, aber wie die Film Industrie uns schon zeigt, sich weiter entwickeln kann.

Das sehe ich anders - ein neues Bewusstsein haben wir noch lange nicht erfunden. Wir wissen ja noch nicht einmal genau, was Bewusstsein ist, und wie es sich entwickelt hat. Ich würde es gruselig finden, wenn heutige computergenerierte Avatare schon ein Ich-Bewusstsein entwickelt hätten.

Haronimo schrieb in Beitrag Nr. 2120-75:
So gesehen gibt es jetzt schon, zwei parallel existierenden Bewusstseins, die irgendwann mal in eine andere, uns fremde, verschmelzen wird.

Bisher sehe ich in der Welt der Computerprogrammierung nirgendwo ein künstlich geschaffenes Bewusstsein, nicht einmal einen Ansatz hiervon.
Ein wichtiger Schritt dahingehend wird m.E. die Entwicklung von künstlichen neuronalen Netzen sein, die eine gewisse Stufe von Komplexität erlangen. Heutiges rein binäres Parallelrechnen ist hierhingehend m.E. eine Sackgasse.
Ein Cousin von mir forschte eine Zeitlang am MIT daran, einzelne Neuronen mit elektronischen Bauteilen sinnvoll zu verbinden. Schon diese Grundlagenforschung ist heute extrem kompliziert und mit vielen Rückschlägen verbunden.

Haronimo schrieb in Beitrag Nr. 2120-75:
Ich denke, das es vielleicht in der Richtung gehen wird. Oder?

So, wie du es beschrieben hast, denke ich es nicht, nein.

Grüße
Signatur:
Diese Welt gibt es nur, weil es Regeln gibt.
Beitrag zuletzt bearbeitet von Stueps am 14.02.2014 um 11:03 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 2.307, Mitglied seit 13 Jahren
Und wiederum KI
Ich kann und will gar nicht bestreiten, dass sich komplexe Systeme wie z. B. Computerprogramme bis hin zu eigenem Bewusstsein entwickeln könnten, hab ich schon mehrfach betont. Ich denke aber, dass die Möglichkeit allein kein Grund ist für die Annahme, sie würden es auch tun, und nur die Möglichkeit haben wir als Grundlage, kein existierendes Programm bietet irgendeinen Hinweis darauf, dass sich daraus etwas „Höheres“ entwickeln könnte. Der Hinweis, dass es ja im Laufe der Evolution schon mal geschah, ist FÜR MICH nicht stichhaltig, wie ich auch schon angeführt habe.
Warum ist er für mich nicht stichhaltig? Weil das „System“ Gehirn völlig anders konzipiert ist als ein Computerprogramm; allein dieser Unterschied macht einen Vergleich fragwürdig.
Stueps schreibt – völlig zurecht -, dass wir mit unserem Gehirn und auch Computer aus denselben Elementen bestehen, wie der Rest des Universums, wir sind Teil dieses Universums.
Weshalb lehne ich den Vergleich dennoch ab? Weil unser Gehirn als „Habitat“ für unser Bewusstsein sich nicht losgelöst von diesem Bewusstsein entwickelt hat, sondern diese Entwicklung in einer Art Wechselspiel stattfand. Es ist – nach meiner Ansicht – nicht so gewesen, das so zu sagen ab einer bestimmten Ebene ein „Klick“ das Bewusstsein einschaltete, also plötzlich ein Qualitätswechsel stattfand, sondern Bewusstsein und Gehirn sind untrennbar miteinander verbunden, es fand nur eine graduelle Entwicklung statt.
Anders gesagt: Für mich liegt der Same des Bewusstseins direkt im Beginn des Lebens, Bewusstsein ist untrennbar mit Leben verbunden. Deshalb auch der Begriff des „Habitats“ für das Gehirn.
Die graduelle Entwicklung des Gehirns/Bewusstseins lässt sich aber noch tiefer gehend verfolgen, nämlich mit der Existenz bzw. Entwicklung des Kosmos selbst.
Jetzt wird es ziemlich unanschaulich und geht vielleicht schon in den Bereich der Metaphysik, was ich gewöhnlich vermeide, aber sei´s drum.
Nach meiner Überzeugung liegt dem Kosmos ein „Substrat“ zugrunde (ich habe keine andere Bezeichnung), dass sich „vor“ oder „unterhalb“ der Quarks, Elektronen, Neutrinos usw. befindet, also dem, woraus sich nach der Quantenmechanik unsere Elemente aufbauen. Der Grund für die Elemente, so wie wir sie kennen, liegt nicht in den Elementen selbst, sondern in ihrem Zusammenspiel, das sich nach meiner Überzeugung eben nicht aus den Elementen, sondern aus der zugrunde liegenden Struktur des Kosmos selbst ergibt. Und das Bewusstsein hat seinen Ursprung dort, wo die Struktur des Kosmos Leben zuließ, wo das Zusammenspiel der Kräfte in steter Entwicklung des Lebens Gehirn und Bewusstsein erschuf. Es ist eine spezielle Struktur des Kosmos, die sich in der speziellen Struktur unseres Gehirns manifestiert. Die „Verdichtung“ dieser speziellen Struktur, also unser Gehirn, bietet das „Habitat“ für ein „Ich“, die - bislang – höchste Stufe des Bewusstseins, also die Entdeckung seiner selbst, eine Essenz der dem Leben innewohnenden, diffusen Erkenntnismöglichkeit.
Wenn man so will, denkt sich das Universum in uns, findet über uns zu einem Erkennen seiner selbst.
Denken ist dem Kosmos immanent und von seiner innersten Struktur her zu verstehen.
Das ist nun mein GLAUBE. Man kann und wird anderer Ansicht sein, nach meiner Überzeugung ist er aber stringent dargestellt. Wenn die Basis dafür, also die Struktur des Kosmos sich als anders herausstellen sollte, habe ich mich völlig geirrt, aber mit diesem Risiko muss jeder Glaube leben.
Signatur:
Herr Oberlehrer

Die Wolken ziehen hin. Sie ziehen auch wieder her.
Der Mensch lebt einmal. Dann nicht mehr.

(Donald Duck)
[Gäste dürfen nur lesen]
Beiträge: 2.998, Mitglied seit 15 Jahren
Stueps schrieb in Beitrag Nr. 2120-78:
im Rahmen der Evolution von "sinnvoll" zu sprechen, ist m.E. oft wenig sinnvoll. Evolution passiert einfach, und bisher haben viele Entwicklungen in die "Sackgasse" geführt. Z.B. immer dann, wenn sich die Umwelt ändert.

Die Evolution hatte Millionen Jahre Zeit den heutigen Menschen (und auch andere intelligente Lebensformen, wie etwa Delfine) hervorzubringen.
Zahlreiche "Versuche" (bitte nicht wörtlich nehmen) führten in die Sackgasse.
letztendlich führte das permanente, wenn auch zufällige, Wettrüsten zwischen Jäger und Gejagten oder zwischen konkurierenden Arten zur heutigen Intelligenz.
Wie viele Generationen waren nötig, um von den Einzellern zu heutigen Intelligenz zu kommen.

Auf die KI bezogen:
Wie viele Exemplare müssten wir bauen, die dann in der Schrottkiste landen, bis wir eine dem Menschen vergleichbare KI gebaut hätten?
Wir haben den Vorteil, dass wir nicht auf den Zufall angewiesen sind, sondern zielgerichte arbeiten können.

Henry schrieb in Beitrag Nr. 2120-76:
Du brauchst doch gar keine Abgrenzung zu suchen, die gibt es doch nicht, ein Computerprogramm ist per se eine KI.

Wenn Du einen heutigen Computer als KI bezeichnest, das ist so, als würdest Du einen Säugling mit Einstein vergleichen, und der Vergleich ist schon hoch gegriffen.

Ich würde heutige KI eher auf den Stand eines Wurms setzen.

Vergleich doch einfach mal die Speicherfähigkeit, die Lernfähigkeit, die Anpassungsfähigkeit eines heutigen Computers mit irgend einem beliebigen Lebewesen. Welche Spezies käme Deiner Meinung nach dem Vergleich am nächsten

Ich würde nicht ausschliessen, dass wir es irgend wann geschafft haben.

Einem Gehirn ist es egal, ob es aus Neuronen oder Halbleitern besteht, solange die Verknüpfungen identisch sind.
Wir müssten also gansu so viel Halbleiter in unsere KI verbauen, wie wir Neuronen in unserem Kopf haben und die müssten dann noch die gleichen logischen Verknüpfungen haben.

Dann hätten wir die menschenähnliche KI erfunden.
Signatur:
Wer jung ist, meint, er müsste die Welt retten :smiley8:
Der Erfahrene erkennt, dass er nicht alle Probleme lösen kann
:smiley3:
Beitrag zuletzt bearbeitet von Hans-m am 14.02.2014 um 15:24 Uhr.
[Gäste dürfen nur lesen]
In diesem Forum dürfen nur Mitglieder schreiben. Hier kannst du dich anmelden
Zum Seitenanfang Nach oben