Willkommen in Manus Zeitforum
InformationenAnmelden Registrieren

Erweiterte Suche

Was sind Gedanken

Thema erstellt von Elfiknuddel 
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Hallo Skeptika,

Skeptika schrieb in Beitrag Nr. 1713-100:
Ich habe jetzt keine direkte Vorstellung, wie das funktionieren könnte, denn ein laufendes Programm im Computer kann man nicht verändern oder updaten.
Ich denke dabei in erster Linie an Befehle wie CASE, IF oder GOTO, bei denen die Bedingungen durch gemessene Ist-Werte verändert werden können, aber auch an s.g. Selbstmodifizierender Codes und Optimietungsmethoden der KI.
Gruß, Otto
[Gäste dürfen nur lesen]
Beiträge: 81, Mitglied seit 12 Jahren
Otto schrieb in Beitrag Nr. 1713-103:
Hallo Skeptika,

Ich denke dabei in erster Linie an Befehle wie CASE, IF oder GOTO, bei denen die Bedingungen durch gemessene Ist-Werte verändert werden können, aber auch an s.g. Selbstmodifizierender Codes und Optimietungsmethoden der KI.
Gruß, Otto

Hallo,

diese sogenannten KI - Maschinen (Supergedankenmaschinen), ausgestattet mit unendlich hoher Intelligenz, werden dann mit Sicherheit für ewigen Frieden auf der Erde sorgen.
Dieser ewige Friede ist aber dann nicht mehr notwendig, weil es Menschen nicht mehr gibt oder nur noch wenige in sehr gut bewachten Gebieten dahinvegetieren werden.

Nach der Atombombe die KI, was denn sonst!!

Ach ja, das Klima wird dann auch wieder passen!!
Es sei denn, die KI - Maschinen gestalten sich selber hitze- und strahlenresistent, wasserdicht und druckunempfindlich und weiß der Teufel sonst noch was.
Dann verwandelt sich das gesamte Universum in einen großen Haufen KI.
Zum Schluss dieser KI - Entwicklung zündet dann ein unvorstellbarer Intelligenzblitz - ein KI - Knall.
Heiliger Bimbam, welcher Gott käme da nicht auf dumme Gedanken!!


Gruß

Gnom
Beitrag zuletzt bearbeitet von Gnom am 07.12.2022 um 13:35 Uhr.
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Otto,

Otto schrieb in Beitrag Nr. 1713-98:
Das Programm wird ein selbst optimierendes Programm sein, das sich selbst umprogrammiert (an eine veränderte Umwelt anpasst).
Dieses Programm wäre sicher auch in der Lage, seinen Zugangscode zu verändern und damit der Kontrolle des Menschen zu entziehen.
Der Lernprozess eines Homunculus würde also nicht nur aus einer einfachen Auswertung der Häufigkeit von Daten bestehen.

So sehe ich es auch.

Das Programm der AI würde sich bei jeder Interaktion mit der Umwelt ein wenig ändern, indem es künftig berücksichtigt, was es aus bisherigen Interaktionen gelernt hat.

Dabei könnte sogar ein Sicherheitsmechanismus eingebaut werden, der den ursprünglichen Zustand des Programms wiederherstellt, wenn das geänderte Programm Fehler enthält oder ein nicht zufriedenstellendes Ergebnis liefert.

Bei kleineren Änderungen sehe ich nicht, dass jedesmal ein "reboot" erforderlich wäre.

Zu Handlungswahrscheinlichkeiten, Gefühlen und Emotionen:

Nehmen wir an, ein KI Roboter würde statistisch handeln und das Programm gäbe ausschließlich eine Wahrscheinlichkeit des Handelns vor.

Etwa: Prinzipiell darf der Roboter überall hin greifen. Wenn die Ergebnisanalyse nach einer Aktion jedoch ergibt, dass der Roboter zu weit links gegriffen hat, würde beim nächsten Durchlauf die Wahrscheinlichkeit erhöht, weiter rechts zu greifen.

Zu jeder objektiven Handlung gebe es nun eine "Innensicht" des Handelnden. Eine wahrscheinliche Handlung entspreche einer angenehmen Innensicht. Eine unwahrscheinliche einer unangenehmen.

Greift der Roboter also trotz Erniedrigung des Wahrscheinlichkeitsparameters weiter links (was ihm grundsätzlich auch nach der Analyse des ersten Durchlaufs - wenn auch mit geringerer Wahrscheinlichkeit - erlaubt wäre) so fühlte er sich in seiner Innensicht dabei unwohl.

Dem Tier oder dem Menschen ergeht es ähnlich:

Wenn es bspw. Hunger hat, erhöht sich die Wahrscheinlichkeit, essen zu wollen. In diesem Fall wird Essen in der Innensicht als angenehm empfunden.

Ist man dagegen satt, wird die Stellgröße für Nahrungsaufnahme auf 'unwahrscheinlich' geändert. In letzterem Fall würde immer weiteres Essen irgendwann zur Qual.
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Otto schrieb in Beitrag Nr. 1713-103:
Ich denke dabei in erster Linie an Befehle wie CASE, IF oder GOTO, bei denen die Bedingungen durch gemessene Ist-Werte verändert werden können, aber auch an s.g. Selbstmodifizierender Codes und Optimietungsmethoden der KI.
Gruß, Otto

Herzlichen Dank vorab für die beiden Links. Die werde ich mir heute Nacht mal ganz in Ruhe durchlesen.
Nun habe ich selbst weder Biologie noch Informatik studiert, aber ich habe mal zumindest ein paar Fachbücher über das menschliche Gehirn im Bücherschrank, jede Menge Bücher zu Informatik / Programmiersprachen und ich habe auch schon mit der Erstellung von komplexen Anwenderprogrammen für ein Ingenieurbüro ein paar Tausend Euro nebenbei verdient (ich programmiere eigentlich nur hobbymäßig für den Hausgebrauch).

Wenn wir uns über KI, selbstmodifizierende und -optimierende Programme unterhalten, dann sollten wir uns vielleicht zunächst erst einmal einen simplen Programmablauf anschauen, damit wir wissen, wie ein Programm generell funktioniert. Nehmen wir der Einfachheit halber einen einfachen Taschenrechner.

Der nachfolgende Programmablauf mag in der Vorweihnachtszeit lustig erscheinen, ist aber letztendlich nicht anders, als hier beschrieben.

Also, Programm wird gestartet...

Haltepunkt eins: Schaue, ob der Trottel von User eine Taste gedrückt hat

Möglichkeit 1: NEIN, noch nichts gedrückt. ===> gehe zurück zu Haltepunkt 1


Möglichkeit 2: JA, da ist etwas gedrückt worden. Weiter bei Punkt 2


Punkt 2: Schaue nach, was da gedrückt wurde.

A) War es eine Rechenoperation, dann gehe zurück zu Punkt 1, wenn noch keine Zahl eingegeben wurde, ansonsten merken!

B) Es war eine Ziffer, aber es wurde noch keine Rechenoperation gewählt ===> erstmal merken! Gehe zurück zu Punkt 1.

C) Es war das Gleichheitszeichen. Also ausrechnen...

Punkt 3: Merke die gedrückte Ziffer...

Ich erspare uns an dieser Stelle den Rest des Programmes, aber spätestens hier kann jeder, auch wenn er nicht programmieren kann, selbständig die weiteren Programmschritte erahnen.

Und jetzt möge jeder überlegen, wie und wo eine künstliche Intelligenz das Programm bereits hier schon ändern könnte...
Dabei muss man aber beachten, dass das ursprüngliche Programm ununterbrochen laufen muss, weil zu jeder Zeit eine Eingabe möglich ist!

Bei den selbstmodifizierenden Programmen braucht man also eigentlich zwei unabhängige Programme, bei denen das zweite Programm das erste überwacht und verändert. Frage: Ist das aus Sicht von Programm eins ein Lernprozess oder passiert das einfach so?

Zum Thema KI: Angst zum Beispiel verursacht bei einem Menschen einen höheren Puls (wegen Adrenalin), aber wie sollte eine KI entsprechend reagieren? Würde der Prozessor seine Taktfrequenz erhöhen? Warum?

Andere körperliche Reaktionen wären geweitete Pupillen, Schweißausbrüche, sexuelle Erregung, Müdigkeit, Mitleid, Wut usw.
Wie sollte das eine KI hinbekommen?
Signatur:
978-3842349889
[Gäste dürfen nur lesen]
Beiträge: 81, Mitglied seit 12 Jahren
Skeptika schrieb in Beitrag Nr. 1713-106:
Zum Thema KI: Angst zum Beispiel verursacht bei einem Menschen einen höheren Puls (wegen Adrenalin), aber wie sollte eine KI entsprechend reagieren? Würde der Prozessor seine Taktfrequenz erhöhen? Warum?

Andere körperliche Reaktionen wären geweitete Pupillen, Schweißausbrüche, sexuelle Erregung, Müdigkeit, Mitleid, Wut usw.
Wie sollte das eine KI hinbekommen?

Hallo Skeptika,

beim Thema KI geht es meiner Meinung nach nicht darum, menschenähnliche Wesen, die sich selber programmieren, zu erschaffen.

Vielmehr haben doch nur einige wenige etwas von der sogenannten KI (es gibt nichts neues unter der Sonne). Der Rest der Menschheit wird regelrecht verdummt.

Dazu ein Video.


Gruß

Gnom
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Hallo Claus,

Die Entwicklung des Gehirns hat ca. 650 Millionen Jahren gedauert. Die Natur arbeitet sehr Träge, und der Mensch mit seiner Technologische Möglichkeiten kann so etwas schneller voranbringen.
Aktuell verdoppelt sich die Leistungsfähigkeit der KI alle dreieinhalb Monaten.

Wenn so weitergeht, bei Ausbleiben von möglichen Katastrophen welcher Natur auch immer, dann könnte es sehr schnell, im Verhältnis zu menschliche Gehirn Entwicklung, gehen.

Was meinst du, wie könnte man einer KI beibringen über einem Witz zu urteilen?
Lachen, nicht lachen, wenig lachen sich kaputtlachen und das ehrlich gemeint?

MfG H.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
[Gäste dürfen nur lesen]
Claus (Moderator)
Beiträge: 2.373, Mitglied seit 16 Jahren
Hallo Haronimo,

ich denke auch, dass die Evolution in Elektronenhirnen um ein Vielfaches schneller abläuft, als in biologischen Systemen. Die werden uns sehr bald eingeholt haben, um uns sodann zu überholen. ;-)

Bzgl.deiner Frage wie man einer KI Witze beibringen könnte:
Ich denke, man muss sie nur einige Millionen Witze lesen lassen. Danach kann sie selber welche erzählen. Oder malen.

Probiere mal Dream AI
Beitrag zuletzt bearbeitet von Claus am 07.12.2022 um 22:11 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Gnom schrieb in Beitrag Nr. 1713-107:
beim Thema KI geht es meiner Meinung nach nicht darum, menschenähnliche Wesen, die sich selber programmieren, zu erschaffen.

Nein, es geht darum, ob KI eigene Gedanken, Gefühle und Emotionen entwickeln könnte.
Meiner Meinung nach niemals.
Signatur:
978-3842349889
[Gäste dürfen nur lesen]
Beiträge: 81, Mitglied seit 12 Jahren
Skeptika schrieb in Beitrag Nr. 1713-110:
Nein, es geht darum, ob KI eigene Gedanken, Gefühle und Emotionen entwickeln könnte.
Meiner Meinung nach niemals.
Hallo Skeptika,

das ist auch meine Meinung!!

Gruß

Gnom
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Guten Morgen,

Skeptika schrieb in Beitrag Nr. 1713-110:
Nein, es geht darum, ob KI eigene Gedanken, Gefühle und Emotionen entwickeln könnte.
Meiner Meinung nach niemals.


So wie es aussieht hat das nicht nur mit Gehirn zu tun, sondern, daran ist der ganze biologische Körper beteiligt.
Bauch, Herz, Hirn, Haut, Zellen usw.

Solange ein KI das nicht hat, kann es wahrscheinlich sowas nicht entwickeln. Allein das Gehirn (rechenpower) schafft das nicht. Emergente Eigenschaften (Gedanken, Bewusstsein) brauchen mehr als rechenpower.

Den Gefühlsgesteuertes Mensch kann nur ein Gefühlsgesteuerte KI ersetzen, und dann wäre das nur eine Stagnation in der Evolution. Was wir brauchen ist eine Revolution.
Der Mensch 2.0 wird etwas Anderes als nur eine ebenbürtige KI, und das jetzt zu erkennen, was das sein könnte, wäre mehr als interessant.

Hat sich damals, vor 5000 Jahren, irgendein Mensch sich vorstellen können das sowas wie ein modernes Auto oder Flugzeug ihren damaligen Karren ersetzen wird.
Was wird es in ca. 5000 Jahren ab jetzt der Fall sein, wird es sowas wie Teleportation geben?

Zitat: Physiker diskutierten zu Beginn der 1990er-Jahre erstmals die Idee der Quantenteleportation. Bereits wenig später – im Jahr 1997 – gelang Anton Zeilinger von der Universität Wien und seinen Kollegen der experimentelle Durchbruch: Sie teleportierten einen Quantenzustand – also die quantenmechanischen Eigenschaften eines Teilchens – von einem Ort an einen anderen. Damals handelte es sich um ein sehr einfaches Quantensystem. Seither hat sich auf dem Feld einiges getan.


MfG H.

PS. Gedankenteleportation in ein KI, das wäre wahrscheinlich vorstellbar! Von Mensch zu Mensch geht ja. Oder?
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 08.12.2022 um 15:29 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Haronimo schrieb in Beitrag Nr. 1713-112:
Skeptika schrieb in Beitrag Nr. 1713-110:
Nein, es geht darum, ob KI eigene Gedanken, Gefühle und Emotionen entwickeln könnte.
Meiner Meinung nach niemals.

So wie es aussieht hat das nicht nur mit Gehirn zu tun, sondern, daran ist der ganze biologische Körper beteiligt.
Bauch, Herz, Hirn, Haut, Zellen usw.

Solange ein KI das nicht hat, kann es wahrscheinlich sowas nicht entwickeln. Allein das Gehirn (rechenpower) schafft das nicht. Emergente Eigenschaften (Gedanken, Bewusstsein) brauchen mehr als rechenpower.

Ich befürchte, dass wir bei unserer Debatte den wichtigsten Aspekt permanent ausblenden: Das "Gehirn" einer KI ist und bleibt ein lebloser Computer, eine strombetriebene, technische Apparatur, die überhaupt keine Möglichkeit für ein echtes Biofeedback hat. Also selbst, wenn man sie in einen echten, biologischen Körper einbauen würde, wäre sie selbst ein totes Aggregat.

Skeptika schrieb in Beitrag Nr. 1713-106:
Otto schrieb in Beitrag Nr. 1713-103:
Ich denke dabei in erster Linie an Befehle wie CASE, IF oder GOTO, bei denen die Bedingungen durch gemessene Ist-Werte verändert werden können, aber auch an s.g. Selbstmodifizierender Codes und Optimietungsmethoden der KI.
Gruß, Otto

Herzlichen Dank vorab für die beiden Links. Die werde ich mir heute Nacht mal ganz in Ruhe durchlesen.

Ich habe mir die beiden Links inzwischen intensiv angesehen und ich gestehe, dass ich da kapitulieren muss.

Weder in Visual Basic, C, Forth oder Basic ist es möglich, selbstverändernde Programme zu schreiben. Diese Programmiersprachen sind compilerbasiert und werden vor der Ausführung in Maschinensprache übersetzt. Damit belegen sie allesamt feste Speicherzellen und können zur Laufzeit nicht verändert werden.

Mit interpreterbasierenden Sprachen (Javascript z.B.) kenne ich mich nicht aus. Ich kann mir aber nicht vorstellen, dass eine KI mit möglicherweise Millionen von Auswertungen pro Sekunde auf Javascript laufen sollte...

Alles in Allem also ein wirklich schwieriges Thema, bei dem man sich vielleicht weniger auf die softwaremäßige KI fokussieren sollte, sondern auf die echten hardwaremäßigen Gegebenheiten.
Signatur:
978-3842349889
Beitrag zuletzt bearbeitet von Skeptika am 09.12.2022 um 13:40 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 81, Mitglied seit 12 Jahren
Skeptika schrieb in Beitrag Nr. 1713-113:
Ich befürchte, dass wir bei unserer Debatte den wichtigsten Aspekt permanent ausblenden: Das "Gehirn" einer KI ist und bleibt ein lebloser Computer, eine strombetriebene, technische Apparatur, die überhaupt keine Möglichkeit für ein echtes Biofeedback hat. Also selbst, wenn man sie in einen echten, biologischen Körper einbauen würde, wäre sie selbst ein totes Aggregat.

Und genau darum geht es. Es fehlt die Lebendigkeit!
Und deshalb wird KI auf Dauer keinen Erfolg haben!!
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Gnom schrieb in Beitrag Nr. 1713-114:
Und genau darum geht es. Es fehlt die Lebendigkeit!
Und deshalb wird KI auf Dauer keinen Erfolg haben!!

Wollen wir mal hoffen...
Signatur:
978-3842349889
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Guten Morgen,

Da wir selber der Träger des, in der aktuelle Thema, untersuchtes Objekts sind, lasst uns aus unseren Erfahrungen Schlüsse ziehen.

Nehmen wir ein Labyrinth;-), der 10 Sackgassen hat und nur ein Weg zu Ausgang führt. Bauen wir damit folgendes Experiment:
Man nehme zwei Menschen, sagen wir mal Claus und Skeptika, und noch dazu eine KI Maschine, und schicken sie durch das Labyrinth.

Sagen wir mal, Claus wäre ein ausgeglichener Mensch der positiv denkt und damit immer Glück hat.
Skeptika dagegen, ist ein aggressiver Mensch der negativ denkt und damit immer Pech hat- ich weiss, das ist nicht fair, könnte aber auch andersrum sein, nichts Persönliches.

Das KI stufen wir als neutral gestimmt, als Maschine ist auch, höchstwahrscheinlich, der Fall.

Was meint Ihr, was, auf Grund unseren Erfahrungen, passieren wird.

Vorab hier meine Meinung dazu: Claus würde den Ausgang ganz schnell finden, und damit als erstes, Skeptika wird unendlich lang hin und her irren und damit als dritte das Labyrinth, verlassen wird. Dem entsprechend wird die Maschine in der Mitte landen, die als zweite das Labyrinth verlässt.

Ist das korrekt, und warum?


MfG H.

.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 09.12.2022 um 09:30 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Haronimo schrieb in Beitrag Nr. 1713-116:
Vorab hier meine Meinung dazu: Claus würde den Ausgang ganz schnell finden, und damit als erstes, Skeptika wird unendlich lang hin und her irren und damit als dritte das Labyrinth, verlassen wird. Dem entsprechend wird die Maschine in der Mitte landen, die als zweite das Labyrinth verlässt.

Da für alle drei Teilnehmer die gleichen Bedingungen das Labyrinth betreffend gelten, wäre es für die menschlichen Teilnehmer auch die gleiche Prozedur aus Suche und Irrung. Die KI hingegen geht analytisch vor und immer an der rechten (oder linken) Wand entlang. Damit findet sie den Ausgang garantiert, wird aber den längsten Weg gehen und damit als 3. Sieger das Labyrinth verlassen.
Signatur:
978-3842349889
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Hallo Claus,

meine Frage war so formuliert:

Haronimo schrieb in Beitrag Nr. 1713-108:
Was meinst du, wie könnte man einer KI beibringen über einem Witz zu urteilen?
Lachen, nicht lachen, wenig lachen sich kaputtlachen und das ehrlich gemeint?

dein Antwort:

Claus schrieb in Beitrag Nr. 1713-109:
zgl.deiner Frage wie man einer KI Witze beibringen könnte:
Ich denke, man muss sie nur einige Millionen Witze lesen lassen. Danach kann sie selber welche erzählen


Also, kann ein KI über einem Witz lachen, oder nicht lachen, und wenn ja was entscheidet über die Intensität des Lachens? Bei Mensch entscheidet auch die momentane psychische zustand. Kann bei KI auch von sowas die Rede sein?

MfG H.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Skeptika schrieb in Beitrag Nr. 1713-117:
Da für alle drei Teilnehmer die gleichen Bedingungen das Labyrinth betreffend gelten, wäre es für die menschlichen Teilnehmer auch die gleiche Prozedur aus Suche und Irrung. Die KI hingegen geht analytisch vor und immer an der rechten (oder linken) Wand entlang. Damit findet sie den Ausgang garantiert, wird aber den längsten Weg gehen und damit als 3. Sieger das Labyrinth verlassen.


Hallo Skeptika,

Bei biologische Systeme ist es so, dass die sich in einem positiv oder negativ energetisch geladene Zustand befinden können der, je nachdem, die Information besser aufnehmen und verarbeiten können.

Ein positiv gestimmtes System kann Information sehr viel besser aufnehmen und verarbeiten als ein negativ geladenes System bei dem die Informationsverarbeitung völlig aus dem Ruder geraten kann und wird. Was uns die Realität mit hohe Wahrscheinlichkeit auch bestätigt.

Die Koinzidenz fällt bei Claus positiv aus, hingegen bei Skeptika klappt überhaupt nichts. Skeptika folgt nicht nur den längeren weg sondern zweifelt so, dass sie sich manchmal hinsetzt und stunden lang nicht mehr weiß was zu tun ist um aus der Situation raus zu kommen.

Somit wird sie sogar von der KI überholt weil, nicht der Weg, sondern die Zeit ihr einen Strich durch die Rechnung macht.

MfG H.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
Beitrag zuletzt bearbeitet von Haronimo am 09.12.2022 um 18:58 Uhr.
[Gäste dürfen nur lesen]
Beiträge: 254, Mitglied seit 8 Jahren
Haronimo schrieb in Beitrag Nr. 1713-119:
Bei biologische Systeme ist es so, dass die sich in einem positiv oder negativ energetisch geladene Zustand befinden können der, je nachdem, die Information besser aufnehmen und verarbeiten können.

:rofl:

Haronimo schrieb in Beitrag Nr. 1713-119:
Ein positiv gestimmtes System kann Information sehr viel besser aufnehmen und verarbeiten als ein negativ geladenes System bei dem die Informationsverarbeitung völlig aus dem Ruder geraten kann und wird. Was uns die Realität mit hohe Wahrscheinlichkeit auch bestätigt.

:rofl:

Haronimo schrieb in Beitrag Nr. 1713-119:
Die Koinzidenz fällt bei Claus positiv aus, hingegen bei Skeptika klappt überhaupt nichts. Skeptika folgt nicht nur den längeren weg sondern zweifelt so, dass sie sich manchmal hinsetzt und stunden lang nicht mehr weiß was zu tun ist um aus der Situation raus zu kommen.

:rofl:

Haronimo schrieb in Beitrag Nr. 1713-119:
Somit wird sie sogar von der KI überholt weil, nicht der Weg, sondern die Zeit ihr einen Strich durch die Rechnung macht.

:rofl:

Ich hätte da zwei Fragen an dich:
1. Was zum Kuckuck hast du dir da eingeworfen?

Und 2. Kann ich da auch etwas davon bekommen?

:rofl: :rofl: :rofl:
Signatur:
978-3842349889
[Gäste dürfen nur lesen]
Beiträge: 518, Mitglied seit 9 Jahren
Hallo Skeptika,


Netter versuch!!!:)

MfG H.

PS.
Haronimo schrieb in Beitrag Nr. 1713-116:
nichts Persönliches.
Signatur:
"Heute ist nicht aller Tage ich komm' wieder keine Frage"
[Gäste dürfen nur lesen]
avatar
Beiträge: 1.148, Mitglied seit 9 Jahren
Hallo Skeptika,

Skeptika schrieb in Beitrag Nr. 1713-113:
Alles in Allem also ein wirklich schwieriges Thema, bei dem man sich vielleicht weniger auf die softwaremäßige KI fokussieren sollte, sondern auf die echten hardwaremäßigen Gegebenheiten.
Wir müssen uns von der bisherigen Erfahrung mit Rechenprogrammen und Hardware völlig trennen.
Vermutlich sind zukünftige Computer nur "Wackelpuddings" aus denen igelförmig hauchdünne Drähte ragen.
(Das ist kein neuer Gedanke; er ist bei mir schon über 50 Jahre alt und war das Ergebnis von Diskussionen mit Kommilitonen.)
Gruß, Otto
[Gäste dürfen nur lesen]
In diesem Forum dürfen nur Mitglieder schreiben. Hier kannst du dich anmelden
Zum Seitenanfang Nach oben