Clanintern Clanintern Clanintern

Forum

Öffentliche Foren
FORUM: Allgemeines THEMA: Getötet durch eine Maschine
AUTOR BEITRAG
Jehova

RANG LLamah

#1 - 16.08 04:37

Da es momentan wieder - angespornt durch die USA im Irak - durch die Medien geistert:

Sollte man einer Maschine die Möglichkeit geben, autonom über Waffenanwendung gegen Menschen zu urteilen um sie dann auch in Steuerbefehle umzuwandeln?

Was haltet Ihr davon? Dass Fehler unterlaufen können und werden muss ja nicht erst diskutiert werden, es fängt schon bei der vermutlich mangelhaften "Feinderkennung" an und geht dann weiter über Fehleinschätzungen der Lage bis hin zu SciFi-Szenarien wie "Maschine wendet sich gegen die eigenen Schöpfer" (obwohl all das ja auch auf Menschen zutreffen kann: Verräter, unfähige Offiziere, FriendlyFire - wo wäre der Unterschied?).
so much Łﻍptøñ in here!

CI Wettbüro

RANG God of Clanintern

#2 - 17.08 20:59

Wird wohl kaum zu verhindern sein
Jehova

RANG LLamah

#3 - 17.08 23:55

Ach was?! Das war nicht meine Frage, darum geht's hier nicht!
thies

RANG Deckschrubber

#4 - 19.08 06:10

Sollte man einer Maschine die Möglichkeit geben, autonom über Waffenanwendung gegen Menschen zu urteilen um sie dann auch in Steuerbefehle umzuwandeln?
------
Ja, weil der sonst einzusetzende Mensch als Kontrolleur die Macht und Funktion der Maschine eher missbraucht, als die Maschine selbst aufgrund ihrer logischen Strukturen reagieren würde.

Die Gefahr von einer Maschine getötet zu werden ist geringer, wenn sie selbst frei entscheidet, als wenn ein Mensch ihr direkte Befehle erteilt.

-------------

Wo wäre der Unterschied?

Der Unterschied muss geschaffen werden. Natürlich ist eine Notfallkontrollmöglichkeit bei Maschinen von Nöten. Aber das sollte kein "Ich bin dein Schöpfer - Tu das nicht, Tu lieber das" sein, sondern eher ein Not-Aus-Schalter. Um defekte Maschinen oder welche mit Fehlern im Programmcode oder andersweitig betroffene Maschinen vom Strom zu trennen.

Diese Funktion gibt es beim Menschen nicht. Daher geschehen Dinge wie Amokläufe oder Selbstmorde. Nicht das ich das als Fehlfunktionen verteufeln will, aber ich denke, wenn man die Gelegenheit gehabt hätte, hätte man den Situationsausgang verändern können.

Mit einer Maschine reden hingegen macht nicht viel Sinn. Trotz künstlicher Intelligenz finde ich bei Maschinen einen einfachen Not-Aus-Schalter die beste Kontrollmöglichkeit. Ansonsten dürfen die gern übe rLeben-tot-Klimawandel und Milchpreise entscheiden.
Gott

RANG LLamah

#5 - 19.08 06:20

quote:
Die Gefahr von einer Maschine getötet zu werden ist geringer, wenn sie selbst frei entscheidet, als wenn ein Mensch ihr direkte Befehle erteilt.


Begründung?!

quote:
Diese Funktion gibt es beim Menschen nicht. Daher geschehen Dinge wie Amokläufe oder Selbstmorde.


Nein, Amokläufe und Selbstmorde geschehen aus ganz anderen, vielfältigen Gründen heraus!

Den "Not-Aus-Knopf" hat man im Prinzip beim Menschen auch: Den Attentäter umlegen bevor er (weiteren) Schaden anrichten kann.

quote:
Mit einer Maschine reden hingegen macht nicht viel Sinn.


Kommt auf die Programmierung an!

quote:
"Ich bin dein Schöpfer - Tu das nicht, Tu lieber das"


Nein, diesen Schritt gehst Du schon vorher: indem du die Maschine programmierst.
thies

RANG Deckschrubber

#6 - 19.08 06:42

Die Interaktion erfolgt des Menschen mit der Maschine als Befehlsgeber ist die Gefahr.

Wenn ich einem Roboter einprogrammiere: "Töte keine Frauen und Kinder" dann wird er diese Regel mittels seiner Sensoren befolgen.

Wenn hinter einer Fraun der gesuchte Verbrecher steht, würde der Mensch eher entscheiden beide zu töten, wenn er das dem Roboter befiehlt. z.B. durch "Visiere Ziel an und Schiesse"

Nur als Mensch selbst mit der Waffe in der Hand würde es wieder wie in Fall eins ablaufen.

Durch die Maschine als Mittel wird der Mensch skrupelloser und nimmt eher Verluste hin. Vergleichend dazu Dokumentationen über Panzer. Nicht als Selbstschutz hergestellt, sondern um mehr Schaden anzurichten.

------------

Einen Menschen umlegen ist kein Not-Aus. Ein Not-Aus bei einer Maschine trennt diese vom Strom und ermöglich die NAchkonfiguration und einen Neustart. Das Töten eines Menschen ist also nicht im einem Not-Aus vergleichbar.
Nur weil mein Computer einen Blue-Screen hat jage ich den nicht gleich auf den Schrottplatz.

------------

Der Schritt "Ich bin dein Schöpfer ..." erfolgt natürlich mit der Programmierung und der Festlegung der Regeln des Handelns.

Im Notfall, also wenn eine Maschine etwas tut, was nicht ihrer Programmierung entspricht, hilft eine solche direkte Interaktion seitens des Schöpfers aber nicht mehr.
Denn eine Routine einzubauen, die es dem Schöpfer im Fehlerfall ermöglicht die Kontrolle über die Maschine wieder herzustellen, ist bei einer Fehlfunktion der Maschine womöglich auch nicht mehr funktionell. Daher hilft es nicht mehr. Also wieder Option Not-Aus-Schalter.
Gott

RANG LLamah

#7 - 19.08 18:41

quote:
Wenn hinter einer Fraun der gesuchte Verbrecher steht, würde der Mensch eher entscheiden beide zu töten


Würde er? Was ist mit moralischen Hemmschwellen? Du meinst also, die sinkt wenn der Mensch seine Tötungen nicht mehr unmittelbar ausführt, sondern über den Umweg einer Maschine?

quote:
Vergleichend dazu Dokumentationen über Panzer. Nicht als Selbstschutz hergestellt, sondern um mehr Schaden anzurichten.


Hm, naja. Beides, oder?

@Not-Aus-Schalter: Dein Geschriebenes klingt alles sehr nach diversen SciFi-Filmen, also Maschinen, die ihrem Schöpfer nicht mehr gehorchen. Ich zumindest frage mich, wo der Not-Aus sein solte? Ein dicker roter Knopf auf dem Kampfroboter, den dann also auch der Feind rücken kann wenn er weiß, wo der sich befindet?

---

Naja, davon mal weg:

Meint Ihr, ein Roboter kann "vernünftiger abschrecken" als ein Mensch? Wenn mich ein Mensch mit einer Waffe bedroht kann ich mich seinen Befehlen immer noch widersetzen in der Annahme oder Hoffnung, dass seine Moral sich durchsetzen und ihn davon abhalten wird, mich tatsächlich zu erschießen. Wenn mir eine Maschine sagt "Eine Bewegung und ich schieße, das ist meine Programmierung" dann kann ich davon ausgehen, dass die das auch so meint!

---

Aber darum geht es gar nicht so unbedingt. Es geht mir tatsächlich eher um den moralischen Hintergrund. Ein pauschaler Kritikpunkt an der ganzen Sache ist ja "Wir dürfen die Entscheidung über menschliches Leben nicht einer Maschine überlassen" und ich würde nun einfach einmal von Euch wissen wollen, in wie fern dieser Kritikpunkt gerechtfertigt ist.
thies

RANG Deckschrubber

#8 - 19.08 19:35

Ja ich denke die Hemmschwelle sinkt dann.

Auch wenn die vergleiche schlecht sind. Mit ner Hand würd eich keinen Baum zerhacken, mit der Axt oder Kettensäge schon. Die Maschine wird zum Werkzeug.

----------

Klar können wie die Entscheidung über menschlisches Leben eine Maschine überlassen. Warum nicht? Wie arbeiten Lebenserhaltungsmaschinen im Krankenhaus? Was passiert mit denen im Fehlerfall?

Und wenn du diesen pauschalen Kritikpunkt "Wir dürfen... nicht ... lassen" hast, dann frage ich mich woher?
Irgendwas muss doch dahinter stehen?
patsetsfire *nur däääh! is blöder als fasching*

RANG Prophet of Clanintern

#9 - 22.08 17:14

In diesem Fall würde ich behaupten, dass die Entscheidungsgewalt garnicht bei der Maschine liegt, ob ein Mensch von dieser getötet wird oder nicht. Eine Maschine funktioniert doch nur durch entsprechende programmierung durch einen Menschen. Also setzt immernoch ein Mensch die Parameter des Tötens für die Maschine.

Diese Maschine ist dann in dem Fall ein automatisiertes Werkzeug. Und da die Maschine sich selbst steuert, nach den vorausgesetzten Parametern, und kein Mensch mehr aktiv daran beteiligt ist sinkt dann wie bereits gesagt die Hemmschwelle dieses Gerät auch einzusetzen. Denn einen Knopf drücken kann jeder. Aber stech mal jemanden ab und seh den Menschen sterben. Dahinscheidend in deine Augen blicken, was dir jahrelang Albträume beschert. Bei einem Knopfdruck fehlt das.
thies

RANG Deckschrubber

#10 - 23.08 07:03

Sofern die Programmierung nur Grundzüge enthält und auf selbst lernen und selbst entscheiden ausgelget ist, ist die beeinflussung durch den Menschen sehr gering bzw. indirekt.

Und darauf kommt es meiner Meinung nach in diesem Fall an. wie stark ist die entscheidung über Waffenanwendung einer Maschine vom menschen geprägt.

- durch direkten Befehl z.b. über direkte Steuerung an einem Computer
- durch klare festgesetzte Strukturen oder vor einer "Mission" einprogrammierte abläufe
- durch "frieen" willen der Maschine aufgrund ihrer bisherigen Erfahrungen und logischen entscheidungsmöglichkeiten


es gibt bereits einige Filme die sich mit diesem Thema beschäftigen. z.B. Roboter die nur 3 Regeln kennen und nach diesen handeln (war i, robot glaube ich). Oder auch Robocop und Terminator, welche Interaktionen zwischen Mensch und Maschine deutlich machen.

Ich weiss z.B. das Aibo-ähnliche Roboter (Aibo ist ein Computerhund von Sony für circa 1000 Euro, welcher leider nicht mehr produziert wird) in Robbenform zur Beschäftigung von alten Menschen im altersheim genutzt werden. Ein solcher Einsatz sieht die Waffenanwendung einer Maschine nie vor, shcon alleine, weil es keine Waffe gibt.

Dennoch sind diese Roboter mit einer Art künstlicher intelligenz ausgerüstet, welche sie dazulernen lassen, so können sie bestimmte Menschen wiedererkennen, können Befehlen gehorchen und wertvolle Aufgabe wie vorlesen übernehmen.

Ob man diese Hilfsroboter zu Kampfmaschinen umbauen kann? Sicherlich. Ob es allerdings nur durch die bisherige Software mit Kontakt von aussen möglich ist, indem man dem Hund beibringt fremde Personen anzugreifen? Ich glaube nicht, obwohl ich dafür keine Belege, Studien oder Selbstversuche kenne.

Dementsprechend ist die Programmierung shcon ausschlaggebend, ob eine Waffenanwendung vorgesehen ist, oder sogar beabsichtigt ist und wie entscheiden wird wann der Einsatz einer Waffe gerechtfertigt ist. Udnd daran ist natürlich vorrangig ein Mensch der Etnscheider, weil er die Kontrollstrukturen festlegt.

Nichts destotrotz können Kontrollstrukturen auch so ausgelget werden, das eine Maschine frei entscheiden kann. Aber das wird man sehen, sofern die ersten Roboter dieser Art im Einsatz sind. die Hilfsroboter aus Japan, welche rennen, Trppen steigen, hinfallen udn wieder aufstehen können, werden jedenfalls garantiert auf ihre militärische Einsatzmöglichkeiten untersucht werden.


hmm ich glaube ich bin ziemlich wild im Themenwechsle gewesen... naja, passiert.

Schönen Tag noch.
dummpumm *E=pc*

RANG Master of Luck

#11 - 05.09 22:25

fahrlässige tötung - wenn eine maschine den falschen erwischt, wird der schöpfer, bzw. derjenige der den missbrauch verursacht, beschuldigt
Elohim

RANG Hardcore Sucker

#12 - 12.09 14:03

Und da fängt das Problem an. Wer wäre schuld? Der Konstrukteur, der Zusammenschrauber, der Programmierer oder doch der Mechaniker, der die Wartung übernommen hat? Oder gar der böse japanische zwölfjährige Hacker, der nen tollen Killerbot-overkill-virus geproggt hat?
thies

RANG Deckschrubber

#13 - 13.09 15:45

Wenn die Maschine weiterhin Maschine bleibt:

Wer wird den verurteilt, wenn einer einen Stromschlag von nem Toaster bekommt? Der Toaster? Der Hersteller? Der Zusammenschrauber? Der Stromlieferant? Der Bedienungsanleitungsschreiber? Der Optiker von der Brille des Opfers? Der IMport des Billigtoasters? Der Staat, der keine Gesetze für das Benutzern von Handschuhen im Umgang mit Toastern erlassen hat? Der Erfinder, der den stromlosen Toaster erfunden hat aber kein Geld zur Herstellung hat?

---

Wenn viele Maschinen die autonom agieren dürfen existieren brauchen die eine rechtsform. Dort muss auch festgelegt werden wer der "Pate" des Roboters/der Maschine ist. Dieser kann dann zur verantwortung gezogen werden. Sofern die Maschinen einen Überwachung unterliegen.

---

Wenn Roboter durch künstliche Intelligenz eigenständig handeln dürfen udn nicht ständiger Kontrolle unterliegen sind sie slebst vor gericht zu stellen. Dann ist eine Todesstrafe (Abschaltungsstrafe) auch sicherlich wieder ein Thema.



Wie man sieht zieht das Thema viele Fäden in andere Gebiete.
thies

RANG Deckschrubber

#14 - 14.09 08:44

Noch als Zusatz ein sehr interessanter Artikel:

http://www.heise.de/tr/artikel/95541

Ein Auszug:

Es ist einfach so, dass ein Auto robust mit Situationen umgehen muss, die man vielleicht vorher gar nicht durchdacht hat. Nehmen Sie das Wüstenfahren zum Beispiel: Was ist wenn links ein kleines Kliff ist und rechts ein Kaktus steht. Das ist vielleicht eine Situation, die dem Programmierer gar nicht in den Kopf gekommen ist. Beim klassischen Programmieren muss der Programmierer alle Gegebenheiten, die vorkommen können, quasi vorher bereits durchdenken. Aber für jede mögliche Situation eine Regel zu schaffen, ist nicht einfach - besonders wenn es um so etwas Komplexes geht, wie das Fahren durch die Wüste.

Im Maschinenlernen ist es so, dass man Beispiele schafft, dass man also beispielsweise von Hand Strecken abfährt. Und was das Fahrzeug dann selbst macht, ist, die eigenen Regeln zu finden - das heißt, das Fahrzeug abstrahiert von sich aus. Und der Grund, warum das schneller ist, als sich von einem Programmierer Regeln vorgeben zu lassen, ist einfach, dass eine Maschine wesentlich schneller mehr Daten verarbeiten kann.



----------

thema ist zwar mehr die Urban Challenge, aber der wichtige Teil darin ist, das der Computer die Regeln selbst lernen soll udn nicht vorgeschrieben bekommen soll. Was auch bei dem Thema hier anwendbar ist. Die Maschine muss lernen wie sie handeln soll und nicht handeln vorgeschrieben bekommen.
=-BR-=Nephazz / BM

RANG Ober0wn3r

#15 - 02.05 13:37

gibts doch schon längst. Nennt sich selbstschußanlage oder mine
Vitacia_Kreuzträger

RANG Deckschrubber

#16 - 08.08 07:36

war dir langweilig?
Kiesch

RANG Deckschrubber

#17 - 17.08 20:35

Ich persönlich bin gegen "Tötungsmaschinen". Das entfernt den Krieg vom Menschen. Und das ist meiner Meinung nach schlecht. Wenn schon überhaupt Krieg, dann sollte der Mensch zumindest mit dem was er anrichtet konfrontiert werden. Mit den Toten. Mit den Verletzten. Mit dem Leid. So muss er sich zwangsläufig mit der Frage auseinandersetzen ob das was er tut richtig ist. Er muss hinterfragen ob er das weiter tun kann. Der Mensch hat die freie Entscheidung.
Die Maschine hat diese nicht. Maschinen können letztlich nicht über ihre Programmierung hinauswachsen. Sie können keine Moralische Entscheidung treffen. Und sie machen den Krieg für die Seite die ihn führt folgenloser... Ich empfehle hierzu die StarTrek Folge über den "virtuellen Krieg" wo ein Krieg quasi simuliert wird (zwischen zwei Planeten) und die "Getöteten" dann in Vernichtungskammern gehen damit der Krieg durchgeführt werden kann ohne die Schrecken und nachwirkungen echter Atombomben. Mit dem Zerstören der Apparaturen und der Drohung eines wirklichen krieges kam hier das Ende des Krieges und Friedensverhandlungen.

Quintessenz: Es ist deswegen generell etwas gutes das ein Krieg einen Preis hat, da genau das viele Kriege verhindert.