Meinung zu Künstlicher Intelligenz

Hi, ich beschäftige mich in meinem aktuellen Roman mit Pflegerobotern und habe im Recherche-Bereich und in der Plauderecke schon wunderbare Informationen sowie Anregungen von den Papyristen bekommen. Diesmal geht es um eure Meinung. Ich habe Fragen, die ich für mich selbst noch nicht abschließen beantworten konnte.
[INDENT]

  1. Dürfen Roboter untereinander streiten oder ist das zu menschlich (im Hinblick auf einen Roman, der in der näheren Zukunft spielt)?
  2. Dürfen sich Roboter gegenseitig Schuld zuweisen?
  3. Damit zusammen hängt die Frage, ob Roboter einen gewissen Gerechtigkeitssinn haben dürfen.

Zusammenfassende Frage: Wie viel “Gefühl” kann ich glaubwürdig einbringen? Ich denke da an HAL aus Odyssee im Weltraum, der zum Ende der Geschichte auch recht menschlich daher kommt.
Zitat: “Lass’ es sein! Bitte! Hör auf! Ich bitte dich! Hör auf! Mein Gedächtnis schwindet. Ich spüre es.”[/INDENT]

4 „Gefällt mir“

Hey Suse,

du kannst es ja frei entscheiden. Hier nur „ein paar“ Gedanken dazu. Man kann aber unendlich diskutieren. Leute, die das drauf haben (@glucose & @NinaW würde ich da hier vermuten) , würden sicher andere Gedanken zum Thema einbringen :slight_smile:

Streit ist vielleicht zu weit in der Zukunft. Im Wesentlichen „denken“ Maschinen in 0 und 1, also binär. Entweder ist etwas wahr oder falsch. Eine Feststellung, nicht mal Grundlage einer Diskussion.

Sie können auswerten. Welches System hat angeblich wie viele Fehler verursacht. Welches System hat mehr Datensätze in welcher Zeit berechnet etc.
Was in der echten Welt gerne passiert: Du hast Anzahl X Schnittstellen in ein Hauptsystem und ein beliebiges Datenfeld dort soll bei Bedarf abgeglichen und aktualisiert werden. Hat man das schlecht umgesetzt, spielen die Schnittstellen Ping-Pong und überschreiben einfach immer und immer wieder die Werte, die das jeweils andere System einschreibt. Lustig zu sehen, nervig zu beheben.

Nicht wirklich, aber es kann den Anschein erwecken. Dazu sind dann nur genug ITTT (If this then that) Gabeln nötig → So erweckt man den Eindruck einer bewertenden, denkenden, KI. Aber eigentlich ist es nur ein vielverzweigter Baum, den ein Mensch definiert hat. Siehe Amazon Alexa etc.

Stephen Hawking hatte seine Sichtweisen zur Super-KI auch beeindruckend geschildert.
Buch: Kurze Antworten auf große Fragen

3 „Gefällt mir“

Das ist gut!

1 „Gefällt mir“

Hast du dich hiermit schon beschäftigt?
https://de.m.wikipedia.org/wiki/Roboterethik

Alternativ beantworten wohl die Asimovschen Regeln deine Fragen, aber deren Anwendbarkeit ist fraglich.

3 „Gefällt mir“

Nein. Habe ich noch nicht. Danke! Darum geht es mir genau: um die Illusion von Leben und wie weit ich diese Illusion glaubhaft in meinem Roman unterbringen kann.

1 „Gefällt mir“

Huch, da hat Stolpervogel ja mal was rausgehauen. Tatsächlich habe ich ein bisschen Ahnung, aber die Fragen sind recht speziell.
Generell hat Stolpervogel schon recht, alles wird berechnet. Allerdings ist es nicht nur eine 1 und eine 0 sondern viele davon, so dass wir letztlich eher von Wahrscheinlichkeiten bei komplexen Entscheidungen reden müssen.
Und dann haben wir da noch Maschine Learning. Hier gibt es keine starren Entscheidungsbäume, sondern die Programme werden trainiert, um Systematiken zu erlernen und dadurch auch selbstständig Dinge erkennen zu können bzw Entscheidungen treffen zu können.
Die Problematik hierbei ist, dass natürlich stark vom Training abhängig ist, was das Programm als wahr, falsch, etc erkennt.

3 „Gefällt mir“

Kann man Gefühle ebenfalls erlernen? Oder besser: Könnte man Gefühle ebenfalls erlernen, z. B. aufgrund von eingespeisten Erfahrungswerten, die dann analysiert und neu zusammengesetzt werden.

1 „Gefällt mir“

Schwer zu sagen, da Gefühle ja eigentlich etwas Irrationales sind. Man ‘lernt’ Gefühle nicht, man erlebt sie.
Allerdings könnte ich mir gut vorstellen, dass man sie bis zu einem gewissen Grad extrapolieren kann.

Und falls du ihn noch nicht kennst, im Foundation - Zyklus von Isaac Asimov geht es auch (unter anderem) um dieses Thema.

2 „Gefällt mir“

Echte Gefühle wohl in naher Zukunft wohl eher nicht. Da sind wir noch ein Stück von entfernt. Meinungen aber schon. Bereits heute zeigt sich, dass die mit Machine Learning trainierten Systeme gerne die Vorurteile ihrer Trainer übernehmen.
Zwei prominente Beispiele sind die Versuche mit predictive policing in den USA, bei denen das System Afroamerikaner deutlich häufiger als gefährlich eingestuft hat, einfach weil sie im Lernmaterial deutlich in Überzahl vertreten waren.
Amazon musste sein System zur Bewerberauswahl wieder abschalten, weil es weiße Männer bevorzugt hat. Auch hier lag es an der Datenquelle.

Ich könnte mir also durchaus lustige Dialoge vorstellen, wenn zwei KIs mit unterschiedlichen Vorurteilen aufeinander treffen …

7 „Gefällt mir“

Dem kann ich nicht zustimmen :thumbsdown:. Zwischen „wahr“ und „falsch“ gibt es in der Mathematik und Informatik auch noch etwas „dazwischen“: Siehe Fuzzylogik :slight_smile:

3 „Gefällt mir“
  1. Ja, das ist definitiv zu menschlich.
  2. Roboter sind emotionslos. Sie verarbeiten Daten und tauschen Daten aus.
  3. Ein KI System, das eigenständig zwischen Recht und Unrecht unterscheidet gibt es glücklicherweise “noch” nicht.
    Es kommt darauf an, worauf das KI System konfiguriert ist. Eine Drohne, die über einem der kriminellsten Viertel patrouilliert und darauf programmiert wurde, auf Personen mit jeglichen Arten von Waffen zu reagieren verfügt nicht über die Eigenschaft, Gerechtigkeit zu empfinden. Die KI wird anhand von bestimmten Merkmalen die wahrscheinlichste positive Prognose stellen. Stehen sich ein Räuber mit Messer und ein Opfer mit Pistole gegenüber wird die KI anhand der Mimik und Gestik der beiden Personen Abfragen in Datenbanken stellen. Ist die Mimik des Räubers aufgrund der stärkeren Waffengewalt des Opfers nicht mehr aggressiv sondern ängstlich und erschrocken und die Auswertung über die Person mit der Pistole eher aggressiv wird die KI möglicherweise eine falsche Entscheidung treffen und das Opfer ausschalten.

Die Kommunikation und Wechselwirkung der Systeme zueinander oder auch gegeneinander richtet sich nach der Wahrscheinlichkeit des optimalen Wertes. Ein KI Pflegeroboter kann dabei über die Funktion der Eigen- und Fremdkontrolle und Regulierung anderer Systeme verfügen, wenn die errechnete oder tatsächlich erfolgte Handlung nicht zum Ergebnis führt. Treffen zwei Systeme mit unterschiedlichen Konzepten aufeinander, findet ein Vergleich statt und die höher gewertete Prognose die zum positiven Ergebnis führt wird an die anderen Systeme übertragen. Interessant wird es, wenn zwei Systeme Prognosen mit höchster Wahrscheinlichkeit berechnen.
Nehmen wir an, das vier Pflegeroboter mit dem Ziel der Körperhygiene verknüpft sind und ein derart ungewöhnliches Verhalten des Patienten eintritt, das eine Neuberechnung erfordert. Zwei der Systeme errechnen unterschiedliche optimalste Handlungen mit besten Prognosen und stimmen jeweils eines der anderen Systeme mit niedrigeren Erfolgswerten auf ihre Werte ab. Dann haben wir zwei Paar KI Roboter, die an dem Patienten herumwerkeln.

4 „Gefällt mir“

Also ich bin ein Kind der 60er. Und einer der ersten Kinofilme, die ich im Leben alleine im Kino gesehen habe, war Starwars.

Und da haben sich R2D2 und C3PO mehrfach miteinander gekabbelt. Jawoll !!
“Sag nicht immer “du wirrköpfiger Philosoph” zu mir !” (O-Ton C3PO)

… na klar können Roboter streiten.

… Und dass sie Gefühle haben können, weiß man spätestens seit “Schlupp vom Grünen Stern” der Augsburger Puppenkiste, oh Ihr Kleingläubigen nur Einsen und Nullen kennende Binär-Fetischisten hier im Forum :stuck_out_tongue:

Hey, ich will Belletristik lesen. Was Spannendes, nix von “Binär-Formeln”

Um es kurz zu machen: DU bist die Autorin. Und wenn es in DEINEM Bauch kribbelt, weil DIR spontan eine Menge geile Dialoge einfallen, über die die betroffenen Pflegeroboter streiten können, dann schreib sie. (Beim Blick von Roboter CARE-2D2 in die Pflegedokumentation zu Roboter Zeh3-POdologe: “Was meinst du damit, “Patientin X ist läufig”?” “Na, die läuft nachts immer durch die Flure!”.)

Aber wenn du schon hier fragst (fragen musst?), ob das denkbar ist, dass sie streiten, dann bist du doch eigentlich so gar nicht wirklich von der Idee streitender und damit “gefühlvoller” Roboter überzeugt? Oder?

DU bist die Autorin. Und DEIN Buch ist kein Sachbuch, sondern wie ich lese ein Roman. Dann überwinde DU doch die Grenzen MEINES Denkens … und das der Kolleg/inn/en hier. Computer ohne Gefühle kennen wir alle, binär “(nicht) denkend”. Das ist keine Neuigkeit.

Mach doch was NEUES, Lesenswertes, Besonderes draus, indem DEINE Pflegeroboter Gefühle haben. Sich z.B. zusammenschließen, wenn ethische Grundregeln der Pflege verletzt werden sollen (z.B. Patient wird gegen seinen Willen gewaschen) oder gemeinsam unliebsame Patienten "um die Ecke bringen (z.B. weil sie in gemeinsam zu Tode pflegen, in dem sie klammheimlich immer mehr Aktivitäten an sich reißen).

Hättest du früher wen gefragt, ob Bäume Gefühle haben / denken können, hätte dich vermutlich jeder schräg angeschaut und gefragt: “Totes Holz?” “Etwas ohne Gehirn?”

Peter Wohlleben hat uns da eines besseren belehrt. Und selbst wenn es nicht so sein sollte (und er sich hypothetisch irren sollte). So what? Er hätte dann vielen Lesern die wunderschöne Illusion gegeben, dass Bäume denken, fühlen und sich umeinander kümmern können. Was also wäre daran so falsch, wenn deine Pflegeroboter streiten und fühlen können? Ist das sooooo absolut und völlig auf alle Zeiten ausgeschlossen?

Das erinnert mich an die zwei Embryos, die im Mutterleib streiten. Der eine behauptet steif und fest, die Geburt sei das Ende des Lebens, der andere bezweifelt das und gibt zu bedenken, dass ja noch keiner von der Geburt zurückgekommen sein, so dass da ja vielleicht doch “draußen” was sein könnte.
… Alles nur eine Frage der Perspektive.

PS: Mir würden Pflegeroboter mit Gefühl gefallen … vielleicht als Testreihe. Dann würde ich gerade die krassen Gegensätze zu den kalten, emotionslosen, vorherigen Robotergenerationen herausarbeiten.

Ist aber nur meine Vorstellung. Aber keinesfalls würde ich nur auf eingetretenen Pfaden wandeln wollen.

Viele liebe Grüße und sehr viel Erfolg.

PS: Du hast mir gerade einen sehr wertvollen Denkanstoß gegeben. Ich schreibe an einer (Abenteuer-) Geschichte und quäle mich seit Wochen mit der Frage, ob mein Protagonist, ein Junge, der vor knapp 5000 Jahren im alten Ägypten lebt, nun eher “altmodisch” sprechen soll (wobei weder ich noch ein hypothetischer Leser ja wüssten, ob man wirklich früher so gesprochen hat) oder ob ich ihn so reden lasse, als ob er sich heute mit uns unterhielte. Eigentlich wollte ich im Forum hier einen Thread eröffnen und das ausdiskutieren lassen. Dank deines wunderbaren Threads bin ich aber gerade zu dem Schluss gekommen, dass ich das durchaus ganz anders machen kann als andere und damit vielleicht auch etwas Innovatives schaffe.

By the way: Ich habe neulich in einem Chat mehrere Minuten geschrieben, wegen der verzögerten Rückzahlung einer überzahlten Urlaubsreise. Und erst nach gut 4 oder 5 Minuten teilt mir mein “Gesprächspartner” mit, er leite mich jetzt weiter an “seinen menschlichen Kollegen”. Mir ist so was von die Kinnlade runtergefallen, weil ich bis dahin nicht mal bemerkt hatte, dass ich mit einem Chat-Roboter schrieb! Also, wenn sie heute schon täuschend “echt” kommunizieren können, warum sollten sie morgen keine Gefühle haben? Und wenn es nur programmierte sind: wenn sie gut genug programmiert sind, fällt es uns vielleicht gar nicht mal auf.

Huh. Was für ein erschreckender Gedanke.

9 „Gefällt mir“

Liebe Suse,
es kommt darauf an, welche Rolle die Roboter in Deinem Roman spielen. Wenn es Charaktere sind, die die Handlung vorantreiben, sollten sie menschliche Eigenschaften haben, und sich auch streiten können. Ansonsten wären sie Statisten - genau wie Toaster oder Smartphones. Menschen möchten in Romanen immer über Menschen lesen, auch wenn diese “Menschen” in Gestalt von Orks, Zauberern oder Hobbits daherkommen. Oder in Form von kleinen C3POs oder R2D2s. Sie haben immer menschliche Eigenschaften - mehr oder weniger stark ausgeprägt. Und wenn Du einen Roman über alle Gegenstände in Deinem Putzschrank schriebest, solange Schrubber, Besen und Eimer die Charaktere sind, die die Handlung bestimmen und vorantreiben, müssen sie menschliche Eigenschaften haben - und dazu gehört streiten genauso wie lieben und alle anderen Gefühle. Vielleicht streiten und lieben sie etwas anders als Menschen, aber die Gefühle als solche müssen erkennbar sein.

Du schreibst auch, der Roman solle in der näheren Zukunft spielen. Ich weiß nicht genau, was das heißt. Du musst entscheiden, ob Roboter das, was Du oben angibst, schon können oder nicht. Wenn die technische Entwicklung noch keine Gefühle in Roboter hineinprogrammieren konnte, sind es eben keine Charaktere Deiner Story, sondern nur Statisten. Denn die Gefühle sind es, die Figuren zu Figuren machen - und nicht nur zu Statisten oder Requisiten.

Du musst Dir überlegen, was Du mit dem Roman erreichen willst. Was soll die Prämisse sein? Willst Du genau diese Fähigkeit von Robotern, Gefühle zu haben, kritisieren und auf die nebulöse Grenze zwischen künstlicher und natürlicher Intelligenz kritisieren und darstellen? Ich denke, ja. Sonst würdest Du doch den ganzen Roman über künstliche Intelligenz nicht schreiben. Dann würden Deine Roboter keine größere Rolle spielen als ein Smartphone auf dem Stand der heutigen Technik. Gerade die Fragen, die Du oben stellst, zeigen mir, dass es Dir um die Gefahr geht, dass Roboter eines Tages eine Konkurrenz zu Menschen darstellen könnten und dass die Grenzen zwischen Mensch und Maschine immer mehr verschwimmen.
Da würde ich Dir raten, den Roman in eine Zeit zu setzen, in der dies denkbar wäre, und dann Deine Roboter mit allen menschlichen Gefühlen ausstatten. Und so auch Konflikte zu generieren.
War das nicht auch das Problem dieses … wie hieß er noch … Mr. Spock? Dass er die Gefühle und Gedankengänge von Menschen nie richtig verstehen konnte?
Ein anderes Beispiel wäre noch der Film “Der 200 Jahre Mann”, in dem Robin Williams mitgespielt hat. Vielleicht kann der Dich inspirieren?

Viel Spaß beim Schreiben Deines Romans. Die Idee hört sich super an!

LG
Pamina

7 „Gefällt mir“

Nein, Spock war halb Mensch und halb Vulkanier und hat Zeit seines Lebens versucht seine emotionale / menschliche Seite wegzusperren.
Aber Star Trek ist ein guter Ansatz, bezüglich Data - dem Androiden - gibt es immer wieder Folgen bei Star Trek - Next Generation, in denen über dieses Thema gestritten wird, auch darüber, ob Androiden Gefühle haben können und alles was daraus folgt.
Die neue Serie Picard auf Netflix macht das auch zum Thema.

R2D2 ist so schrullig, weil sein Datenspeicher nie gelöscht wurde, er daher sehr viel Dinge gelernt hat und in sein Verhalten integriert hat (siehe Maschine Learning), die seine ursprüngliche Programmierung unterlaufen. Bei C3PO ist das nicht der Fall, weshalb er immer sehr an den ihn einprogrammierten Routinen hängt. Die beiden haben daher unterschiedliche Positionen, die gerade weil sie Roboter sind zu Streit führen müssen.

Mehr zu Data: https://www.google.com/url?sa=t&source=web&rct=j&url=https://www.montage-av.de/pdf/082_1999/08_2_Klemens_Hippel_Der_menschlichste_von_uns_allen.pdf&ved=2ahUKEwj85dzPlPHnAhVuZxUIHfTgB7YQFjAAegQIBBAB&usg=AOvVaw1fDnA_oA5_2u8JUBUi1zRj
Auch zum Thema “Gefühle lernen” gibt es hier gewisse Antworten.
Auch hier https://memory-alpha.fandom.com/de/wiki/Emotionschip
Und mit der Gefühlssache kommen wir auch zu sowas https://memory-alpha.fandom.com/de/wiki/Wem_gehört_Data%3F

Möglichkeit:
Wenn du bei deinen Pflegerobotern Machine Learning als Basis nimmst, könnten die Senioren deines Pflegeheims die Roboter in ihrem Sinne prägen oder “erziehen”, solange die sicher vorgesehenen Wartungsroutinen - Korrektur der gesammelten Daten - ausbleiben.

3 „Gefällt mir“

Ich glaube, das wäre extrem spannend! Das schreit doch nach amüsanten Szenen, die trotzdem tiefe Einblicke in die seelischen Zustände der Damen und Herren beinhalten. Ich stelle mir da gewisse „Stellvertreterkriege“ vor. :thumbsup::slight_smile:

1 „Gefällt mir“

Schau Dir mal den Film Blade Runner von Ridley Scott an.
Der Film wurde 1982 gedreht und spielt im Jahr 2019!
Bei Wikipedia gibt es interessante Infos zum Film, die Dir vielleicht auch nützen könnten.

1 „Gefällt mir“

Längst nicht mehr.

Was sind Gefühle? Intuition, Wahrscheinlichkeiten, Mustererkennung plus - und der Teil geht den Robos natürlich ab - Hormone. Ein pubertierender Android wäre doch mal was!

Im Gegensatz zu Yoro glaube ich allerdings schon, dass Gefühle zu einem relevanten Teil erlernt sind. Gruppenzugehörigkeit etc. - was Evolutionsvorteile ergibt, ist einigermaßen fest codiert, auch in Gedanken und Verhalten.

Das ist zu einfach gedacht. Und easy zu programmieren - Entscheidung erst fällen, wenn auch der Konflikt-Anlass erkennbar wurde (wer hat wessen Brieftasche und Uhr in der Hand etc., dazu bei unklarer Situation auf niedrigerem Level eingreifen).

Besonders mit dem Thema beschäftigt sich neben den erwähnten brillanten “Star Trek - Next Generation” (Data) und Blade Runner (aber nur Teil 1) noch:
“Colossus” (1970) - gerade neulich nochmal gesehen, heftig in eben dieser Konsequenz, und
“Der Rasenmäher-Mann” / “The Lawnmower Man” von 1992.
Die beiden Filme beinhalten die Konsequenzen überlegener Intelligenz im Blick auf die Menschheit und deren Fähigkeiten zur Einschätzung von Situationen.

5 „Gefällt mir“

@Suse

Ohne die interessanten anderen Beiträge jetzt mit einzubeziehen …

Ich hänge an “der näheren Zukunft” als Vorgabe: 5-10 Jahre? Roboter werden dann im Pflegeheim(?) stationäre oder Teile auf Rädern sein, die jeweils für Spezialaufgaben gedacht sind (zum Beispiel wegen hygienischer Anforderungen). Sie werden aus einer Hand kommen - ein Pflegeheim = ein Lieferant von Hard- und Software und zentral überwacht werden. Zumindest aber mit genormten Schnittstellen ausgestattet sein, die von der Zulassungsbehörde festgelegt sind.

Gefühle? Zumindest einprogrammierte oder vorgetäuschte Gefühle? Nö, noch nich. Insofern fällt in der nahen Zukunft in dieser Hinsicht m.E. noch nichts literarisch Ergiebiges an. Naja, man könnte eben das Maschinenmäßige der Geräte beschreiben.

Streiten? Die Kommunikation der Geräte wird für die Menschen nicht erkennbar sein (z.B. WiFi oder IR), wozu auch. Es wird Prioritäten geben, der Reinigungsroboter drückt sich an die Wand, wenn der Pflegeroboter mit Bluelight-Bluetooth angerauscht kommt.

Schuld? Im Sinne Evas? Nö. Es gibt bei Problemen Ursachenforschung, ala “das Auto hätte 10 Millisekunden eher mit dem Bremsen anfangen sollen, dann wäre beim Unfall nur Sachschaden aufgetreten”. Bis jetzt betreiben das Menschen. Bis eine Ordnungswidrigkeiten-Software nach Erheben der Sachlage eine Owi an ein Auto verschickt, wird es noch dauern. Die dann beteiligte Versicherungsrepräsentanz würde natürlich Einspruch erheben, man würde in die nächste Instanz gehen, das Amtsgerichtsprogramm müsste entscheiden - macht es auch. Das alles in 17 Millisekunden. Wozu verurteilt man ein Automobil?

Gerechtigkeit? Zur Zeit gibt es Vorschriften und Gesetze, die einzuhalten wären. Ansonsten: welche Gerechtigkeit? Die des billig, aber gerecht denkenden Menschens, die im Sinn Rudolf Steiners (weil wir grad so ein Datum haben) oder Spartas?

Ich würde die nahe Zukunft verlassen und eine seitliche Realität wählen oder zumindest großartige Erfindungen (ich meine auch Erfindungen, nicht nur Entwicklungen) auf dem Gebiet der künstlichen Intelligenz und der Robotik einführen. Dann könntest du freier äh, fabulieren. Es ist ja dein Roman und deine Welt. Die Roboter könnten dann so agieren, wie es das menschliche Personal heutzutage schon macht uuuund der Text enthielte etwas mehr Exotik.

Im Übrigen enthält die “nähere Zukunft” ein ziemliches Risiko für Autoren, wenn es um technische Fragen geht. Man wird leicht überrollt von den tatsächlichen Entwicklungen; sie kommen auch gerne aus Richtungen, die man nicht in Betracht gezogen hat (ist mir schon 2x passiert - oh, das Umschreiben …).

3 „Gefällt mir“

In einer Geschichte von Stanislav Lem (Robotermärchen 1964) verändert der ständi intensivierte Einsatz von Robotern die ganze Gesellschaft. Indem verschiedene Firmen ihren Maschienen immer mehr Fähigkeiten verleihen, verschwimmt der eigentlich mal angedachte Nutzen. Waschmaschienen waschen nicht nur, sie passen auch abends auf die Kinder auf, bereiten die Mahlzeiten und sehen aus wie Marilyn Monroe oder Richard Gere. Die Roboter werden immer selbständiger und beginnen langsam kriminell zu werden. Es stellt sich also irgendwann die Frage, wer dafür verantwortlich sei, der Besitzer, der Hersteller? Die Regierung entscheidet, dass die Roboter selbstverantwortlich handeln und es wird daraufhin ein Gesetz erlassen, welches die Roboter bestraft, indem man ihnen wichtige, technische Bauteile entfernt. Sofort entsteht ein Schwarzmarkt für Ersatzteile (“Ey, Alder, brauchste ´n Keilriemen?”). Wenn ich mich recht erinnere, endet die Geschichte so, dass die Maschienen sich von der Menschheit einfach abtrennen und einen eigenen Planeten gründen. Lem eben.
Aber Tintenteufelin hat recht:* Du* bist die Autorin,* Du* bist der Boss und Deine Helden, liebe Suse, handeln so, wie es Euch gefällt. Künstlerische Freiheit.

@Tintenteufelin
Manche schreiben “Märchen”, andere lieber “Reportagen”. Davon ist abhängig, wie nah an der gegenwärtigen Realität die geschilderten Geschehnisse sein möchten.

@Suse
Mir fällt dazu die Serie “Humans” ein. Dort geht es um die Frage, ob ein ein Roboter ein Bewusstsein haben kann und wenn ja, was ihn dann noch vom Menschen unterscheidet und ob ihm dann nicht dieselben Rechte zustehen. Natürlich haben diese Roboter dann Gefühle! (Allerdings erst nach einem “Aufwecken” durch ein spezielles Stück Code.)

  1. Dürfen Roboter untereinander streiten oder ist das zu menschlich (im Hinblick auf einen Roman, der in der näheren Zukunft spielt)?
    Wie menschlich willst Du sie denn darstellen? Bereits eine fliegende Drohne, die Knöllchen verteilt, kann leicht in einen Streit verwickelt werden. Und ein Pflegeroboter schickt vllt eine Figur immer wieder ins Bett, obwohl sie nicht schlafen will. Da kannst Du natürlich ein immergleiches “Bitte suchen Sie Ihre Bettstatt auf” wiederholen - das würde ich aber nicht gerne lesen.

  2. Dürfen sich Roboter gegenseitig Schuld zuweisen?
    Klar, wenn sie zum Beispiel einen Unfall hatten, kann das lustig werden.
    “Sie haben mich beschädigt!”
    “Nein, Sie haben mich beschädigt!”

  3. Damit zusammen hängt die Frage, ob Roboter einen gewissen Gerechtigkeitssinn haben dürfen.
    Die Maschine agiert ja im Sinne des Erbauers. Wenn ich also moralische Grundsätze definiere, dann “urteilt” das Programm in diesem Sinne. Üblicherweise ist die Programmierung unvollkommen, so dass ein Mensch anstelle der Maschine “gerechter” geurteilt hätte. Der Mensch ist einfach in der Lage, flexibler auf neue Entwicklungen zu reagieren. Die Maschine bräuchte ja ständig ein Update.
    Also zum Beispiel bringt der Pflegeroboter die zu pflegende Person üblicherweise bei Erkältungssymptomen zum Arzt. Jetzt ist das aufgrund des Coronavirus eher nicht mehr so angebracht, um die Krankheit nicht noch weiter zu verbreiten oder sie aus der Praxis erst mitzubringen (meine Meinung).

Zusammenfassende Frage: Wie viel “Gefühl” kann ich glaubwürdig einbringen? Ich denke da an HAL aus Odyssee im Weltraum, der zum Ende der Geschichte auch recht menschlich daher kommt.
Ich finde gerade bei einer Pflegetätigkeit Gefühl wichtig. Griffe dürfen nicht zu fest und nicht zu lasch sein. Seelisch sollte der Roboter zumindest die Illusion eines Gegenübers aufrechterhalten können (Konversation mehr als SmallTalk, aktives Zuhören), sonst fände ich es gar nicht glaubwürdig, dass die überhaupt langfristig eingesetzt werden. Es sei denn, der Pflegenotstand ist noch um einiges größer als jetzt.