Seite 1 von 1

KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 11:48
von slashCAM

Das vor kurzem veröffentlichte Statement on AI Risk vom Center for AI Study hat für viel Diskussion gesorgt – auch im mittlerweile 254 Kommentare fassenden slashCAM AI-...
Bild
Hier geht es zur Newsmeldung auf den slashCAM Magazin-Seiten:
KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 12:43
von sixxteen
Skynet lässt grüßen ...

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 13:39
von -paleface-
Da gibt es extra die 3 Roboter Gesetzte....aber die bringen natürlich nichts wenn das Ding dafür da ist Menschen zu töten.

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 14:03
von macaw
-paleface- hat geschrieben: Fr 02 Jun, 2023 13:39 Da gibt es extra die 3 Roboter Gesetzte....aber die bringen natürlich nichts wenn das Ding dafür da ist Menschen zu töten.
Es ist ohnehin schwierig wie das z.B. mit GPT mal losging. Da wurden ja mal rassistische Tendenzen sichtbar, weil es auf Material trainiert wurde, wo diese Strömungen vermehrt mit dabei waren. Allerdings ist insgesamt die Frage, ab wann eine KI überhaupt noch sinnvoll nutzbar ist, wenn es immer mehr Ausnahmen, Limitierungen und widersprüchliche Anweisungen im System gibt - am schlimmsten, wie von Dir gesagt, wenn es jemanden töten soll, aber unter anderen Umständen auch nicht bzw. nur dann, wenn bestimmte Voraussetzungen bestehen. Ich glaube das ist Irrsinn. Wenn GPT sich Quatsch ausdenkt wo es keine Infos besitzt, also quasi interpoliert, sind mitunter gravierende Unfälle nicht nur nicht auszuschließen, sondern sogar mit ihnen zu rechnen.

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 14:19
von markusG
macaw hat geschrieben: Fr 02 Jun, 2023 14:03 Ich glaube das ist Irrsinn. Wenn GPT sich Quatsch ausdenkt wo es keine Infos besitzt, also quasi interpoliert, sind mitunter gravierende Unfälle nicht nur nicht auszuschließen, sondern sogar mit ihnen zu rechnen.
Ist das denn bei rein menschlichen Entscheidungsträgern anders?

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 15:02
von macaw
markusG hat geschrieben: Fr 02 Jun, 2023 14:19
macaw hat geschrieben: Fr 02 Jun, 2023 14:03 Ich glaube das ist Irrsinn. Wenn GPT sich Quatsch ausdenkt wo es keine Infos besitzt, also quasi interpoliert, sind mitunter gravierende Unfälle nicht nur nicht auszuschließen, sondern sogar mit ihnen zu rechnen.
Ist das denn bei rein menschlichen Entscheidungsträgern anders?
Ich hoffe doch.
Aber ich spreche auch aus Erfahrung, z.B. habe ich erlebt, daß sich ChatGPT bspw. Worte ausgedacht hatte, um einen Reim zu bilden - das ist ja erstmal amüsant, dann las ich, daß ein Anwalt via GPT ähnliche Urteile zu seinem aktuellen Fall gesucht hatte und dann fiktive Fälle erhielt, inkl. Aktenzeichen. In beiden Fällen würde ein normaler Mensch i.d.R. sagen: Sorry, ich passe. Ein Computer müsste das doch erst recht können, vor allem dann, wenn da immer lang und breit erklärt wird, was GPT alles nicht tut und tun kann. Und bei solchen Maschinen wäre es doch der Super GAU wenn die Maschine nicht nur einfach macht was sie will um das Ziel zu erreichen, sondern bei Fehlen von Daten einfach völlig zufällige Aktionen durchführt.

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 15:35
von Darth Schneider
So viele, egoistische, machtgeile Idioten sind sehr erfolgreiche Politiker.
Womöglich wäre es Besser und friedlicher auf unserer Welt wenn diese in Zukunft durch eine KI ersetzt werden würden..
Gruss Boris

Re: KI-Drohne des US Militärs tötet Operator, um effektiver töten zu können - in Simulation

Verfasst: Fr 02 Jun, 2023 22:36
von abartfilms
Die Geschichte scheint wohl so nie passiert zu sein.

https://www.heise.de/news/Simulation-KI ... 62641.html

"Nach einer großen Zahl von Medienberichten hat die Royal Aeronautical Society inzwischen eine Klarstellung veröffentlicht und zitiert Hamilton mit dem Eingeständnis, sich "falsch ausgedrückt" zu haben. Bei der "Simulation einer außer Kontrolle geratenen KI-Drohne" habe es sich lediglich um ein "hypothetisches Gedankenexperiment" gehandelt, das von außerhalb der Basis stammte. Das habe aber auf "plausiblen Szenarien" und "wahrscheinlichen Resultaten" beruht: "Wir haben das Experiment nicht durchgeführt und müssten es auch nicht, um zum Schluss zu kommen, dass es plausibel ist", meint Hamilton demnach. Die US-Luftwaffe habe solch eine bewaffnete KI weder in der Realität noch in einer Simulation getestet. Trotzdem habe er darauf bestanden, dass das hypothetische Beispiele reale Gefahren aufzeige. Der Anfang der Meldung wurde entsprechend korrigiert, der Rest weitgehend beibehalten."