Claus (Moderator)
Beiträge: 2.298, Mitglied seit 15 Jahren
|
Beitrag Nr. 2356-21
16.11.2020 09:26
|
Otto schrieb in Beitrag Nr. 2356-18:Ich denke, dass dies ein Fake ist.
Otto schrieb in Beitrag Nr. 2356-19:GPT-3 ist m.E. ein Ghostwriter...
Stueps schrieb in Beitrag Nr. 2356-20:Ja, so ähnlich hatte ich es auch verstanden. ... Allerdings, wenn eine Maschine sagt, "ich verstehe nicht, was ich schreibe", um dieses dann als Lüge aufzudecken (weil der Mensch nicht erwartet, dass Maschinen lügen; und weil die Maschine vorgibt, eben doch zu verstehen, was sie da schreibt), dann ist das Ganze schon sehr gruselig.
Beiträge: 1.603, Mitglied seit 14 Jahren |
Beitrag Nr. 2356-22
16.11.2020 12:02
|
Stueps (Moderator)
Beiträge: 3.404, Mitglied seit 16 Jahren
|
Beitrag Nr. 2356-23
16.11.2020 16:13
|
Claus schrieb in Beitrag Nr. 2356-21:Entweder der (nicht blaue) Text ist ein Fake, d.h. ein Mensch hat ihn geschrieben.
Claus schrieb in Beitrag Nr. 2356-21:Oder die Maschine hat ihn geschrieben. Wenn Letzteres, dann besteht nur noch die (m.E. sehr unwahrscheinliche) Möglichkeit, dass die Maschine den Text nahezu genauso im Internet vorgefunden hat.
Claus schrieb in Beitrag Nr. 2356-21:Sofern die Maschine aber auf alle Fragen sinnvoll antwortet (wobei sie m.E. durchaus auch sachliche und logische Fehler machen darf), hat sie für mich den Turing Test bestanden.
Claus schrieb in Beitrag Nr. 2356-21:Es gibt dann m.E. keine Möglichkeit mehr, der Maschine menschlich ebenbürtiges oder wahrscheinlich sogar weitergehendes Denken abzusprechen.
Harti schrieb in Beitrag Nr. 2356-22:vielleicht kann man man die Maschine ja verwirren, indem man sie z.B. fragt:
Wie alt bin ich, wenn ich heute Morgen um 7 Uhr geboren wurde ?
Wenn sie antwortet: 5 Stunden, kann sie nicht denken.
Wenn sie antwortet: Die Frage kannst Du nicht stellen, weil du erst 5 Stunden alt bist, kann sie denken.
Dies ist nur ein einfaches Beispiel.
Beiträge: 1.503, Mitglied seit 15 Jahren |
Beitrag Nr. 2356-24
16.11.2020 16:33
|
Claus schrieb in Beitrag Nr. 2356-21:Meines Erachtens gibt es zwei bis drei Möglichkeiten: Entweder der (nicht blaue) Text ist ein Fake, d.h. ein Mensch hat ihn geschrieben. Oder die Maschine hat ihn geschrieben. Wenn Letzteres, dann besteht nur noch die (m.E. sehr unwahrscheinliche) Möglichkeit, dass die Maschine den Text nahezu genauso im Internet vorgefunden hat. Ein Indiz dafür wäre, dass die Maschine in anderen Fällen, bei ähnlich komplexen Fragestellungen auch sinnlose Texte liefert. Sofern die Maschine aber auf alle Fragen sinnvoll antwortet (wobei sie m.E. durchaus auch sachliche und logische Fehler machen darf), hat sie für mich den Turing Test bestanden. Es gibt dann m.E. keine Möglichkeit mehr, der Maschine menschlich ebenbürtiges oder wahrscheinlich sogar weitergehendes Denken abzusprechen.
Beiträge: 1.359, Mitglied seit 17 Jahren |
Beitrag Nr. 2356-25
16.11.2020 19:58
|
Stueps schrieb in Beitrag Nr. 2356-12:...
Nachtrag: ich erinnere mich gerade an eine Konversation mit Siri, ..., und schrie sie an: "Hey Siri, du bist schei*e!" Und sie antwortete: "Ich hoffe, wir bleiben trotzdem Freunde." ...
Stueps (Moderator)
Beiträge: 3.404, Mitglied seit 16 Jahren
|
Beitrag Nr. 2356-26
16.11.2020 20:12
|
Claus (Moderator)
Beiträge: 2.298, Mitglied seit 15 Jahren
|
Beitrag Nr. 2356-27
18.11.2020 18:43
|
Stueps (Moderator)
Beiträge: 3.404, Mitglied seit 16 Jahren
|
Beitrag Nr. 2356-28
20.11.2020 04:26
|
Rechtlich gesehen ist das Einholen einer Einverständnis in diesem speziellen Fall eigentlich nicht erforderlich. Da der Bundesgerichtshof jedoch Abmahnungen als "allgemeines Lebensrisiko" bezeichnet und die Rechtsverteidigung selbst bei unberechtigten Abmahnungen immer vom Abgemahnten zu tragen ist (nein, das ist kein schlechter Scherz) und da Abmahnungen nicht selten in Unkenntnis der genauen Sachlage erfolgen, möchte ich mit diesem Hinweis dieses "allgemeine Lebensrisiko" ein Stück weit reduzieren.