Zuviel Werbung? - > Hier kostenlos beim SPS-Forum registrieren

Seite 2 von 3 ErsteErste 123 LetzteLetzte
Ergebnis 11 bis 20 von 27

Thema: Künstliche Intelligenz

  1. #11
    Registriert seit
    11.12.2009
    Beiträge
    2.113
    Danke
    388
    Erhielt 390 Danke für 271 Beiträge

    Standard


    Zuviel Werbung?
    -> Hier kostenlos registrieren
    Okay, dann kommt jetzt mal ein ganz überspitztes Beispiel, was nicht nur Intelligenz, sondern auch Moral anspricht.

    Nehmen wir an, wir haben einen voll autarken Kampfroboter. Dieser erkennt eigenständig Ziele, und entscheidet dann
    ob er sie bekämpft oder nicht. Nehmen wir jetzt an, eine Gruppe kleiner Kinder rennt auf ihn zu. Diese Situation ist dem Roboter nicht bekannt, weder durch Programmierung, noch durch vorherige "Erfahrungen". Somit handelt der Roboter "zufällig", und erschießt in unserem Szenario alle Kinder. Die "Interpretation" die nun folgt könnte sein "ich habe die Ziele neutralisiert, ich wurde nicht beschädigt oder zerstört, meine Handlung war korrekt, somit wird sie für das nächste mal gespeichert und dann wiederholt". Ab diesem Moment tötet dieser Roboter alle Kinder, die er trifft.

    Somit muss man sich nicht nur darum kümmern ob ein Roboter "intelligent" ist, sondern man muss ihm auch irgendwie die menschlichen Moralvorstellungen "verpflanzen"... und das ist ein noch viel heiklerer Punkt! Es gibt sehr unterschiedliche Moralvorstellungen, allein unter Menschen. Was ist dann "die Richtige" für eine Maschine?

    Das alles kann man unendlich weit denken, die Schlussfolgerung ist dann eine Maschine genau so zu behandeln wie einen Menschen, sprich sie wäre Straffähig, für ihre Handlungen haftbar, etc pp... Dafür müsste unser Rechtssystem komplett auf den Kopf gestellt werden, denn wenn es bleibt wie bisher, würde der Programmierer dafür in den Bau gehen, nicht die Maschine!

    Ich hoffe ihr versteht worauf ich anspielen will, mit dem plumpen Handeln, Auswerten, Bewerten, ist es bei weitem nicht getan!

    Grüße

    Marcel

  2. #12
    Registriert seit
    01.01.2009
    Ort
    Niedersachsen
    Beiträge
    813
    Danke
    180
    Erhielt 79 Danke für 75 Beiträge

    Standard

    Da gebe ich dir Recht.
    Aber unterm Strich war die Entscheidung intelligent, aber unmoralisch.
    Es ging ja zum einen um KI und nicht um KM.
    Und zum anderen, wäre noch die Frage, ob die KI nicht auch hochrechnen würde, was passiert, wenn sie weiter so handelt.
    Rein von der Logik her müsste die KI feststellen, dass bei weiterem gleichen Vorgehen irgendwann niemand mehr da wäre, der sie ggf. reparieren könnte o. ä.. Demzufolge würde sie nicht immer alle töten, sondern lernen abzuwägen.
    Zusätzlich würde eine KI auch vorher berechnen wie groß die Gefahr ist und würde z.B. feststellen, dass eine gewisse Anzahl von Kindern nicht bedrohlich ist. Demzufolge würde sie die Kinder nicht töten. (Was zugegeben nichts mit Moral zu tun hat).
    Andererseits hat ein Kampfrobotter einen eindeutigen Auftrag, der widerum moralisch fragwürdig ist.
    Man könnte nun auch behaupten, dass er sich nur verteidigt hat (selbsterhaltungstrieb).
    Wenn ein Mensch bedroht wird und sich verteidigt, handelt er dann unmoralisch?

    Ich denke Moral wird immer gelehrt. Man muss einer KI eine Grundrichtung für Moral vorgeben; z. B. töten ist schlecht, damit sie sich moralisch weiterentwickeln kann. Wobei moralische Entscheidungen immer mit der Intelligenz zusammenhängen.
    Geändert von Jan (23.03.2012 um 22:38 Uhr) Grund: Ein zusätzlicher Kommentar fehlte.
    Gruß Jan

    Wer fragt, bekommt Antworten.

  3. #13
    Registriert seit
    11.12.2009
    Beiträge
    2.113
    Danke
    388
    Erhielt 390 Danke für 271 Beiträge

    Standard

    Ja das ist es halt... das Thema ist nicht schwarz weis,... sondern es hat so viele Grautöne!

    Es ist die Frage ob man einfach einen Strich zwischen Intelligenz und Moral ziehen kann...
    Wie gesagt ein unendlich komplexes und derart verflochtenes Thema... das es für einen
    Menschen gar nicht in seiner Gesamtheit begreifbar ist.

    Grüße

    Marcel

  4. Folgender Benutzer sagt Danke zu Matze001 für den nützlichen Beitrag:

    Jan (23.03.2012)

  5. #14
    Registriert seit
    07.03.2004
    Beiträge
    4.369
    Danke
    946
    Erhielt 1.158 Danke für 831 Beiträge

    Standard

    Sind wir jetzt im Ernst bei der künstlichen Moral?
    Welche Definition soll denn da als Grundlage dienen? Die vom katholische Pfarrer?! Man kann sich dann ja nicht nur moralisch sondern eben auch unmoralisch verhalten. Eigentlich zu albern um sich darüber Gedanken zu machen aber ok. Wenn es eh gerade um Definitionen und Kategorisierungen geht, welche Tiere sind denn im Besitz einer natürlichen intelligent und wie sieht es mit deren Moral aus?
    If you open your Mind too much, your Brain will fall out.

  6. #15
    Registriert seit
    11.12.2009
    Beiträge
    2.113
    Danke
    388
    Erhielt 390 Danke für 271 Beiträge

    Standard

    Wie gesagt, es ist alles definitionssache... wenn wir Intelligent ohne Moral wollen, dann brauchen wir uns über so Krasse Beispiele wie o.g. nicht wundern, denn nüchtern betrachtet könnte eine solche Entscheidung logisch sein.

    Das ziel ist allseits korrektes handeln, und dies geht nur, wenn man dies entsprechend der Moralvorstellungen macht.
    Nur wie du treffend wiederholt hast (das hatte ich bereits angeschnitten) gibt es unterschiedliche Moralvorstellungen.

    Die Frage ist einfach: Was ist das Ziel, was ist Intelligenz, wollen wir Intelligenz oder Moral oder beides,...

    Im allgemeinen wird unter einer KI verstanden, dass ein Roboter immer menschenähnlicher wird... nur sind wir wirklich das Maß aller Dinge?

    Grüße

    Marcel

  7. #16
    Registriert seit
    07.03.2004
    Beiträge
    4.369
    Danke
    946
    Erhielt 1.158 Danke für 831 Beiträge

    Standard

    Löse Dich mal von der Moral dies ist gar nicht so leicht zu definieren. Es basiert auf einem Wertesystem das durch die jeweilige Kultur geprägt ist.

    Wir haben z.B. ganz andere Moralvorstellungen als die Menschen in Afghanistan oder sonst wo.


    Buchtipp: Jenseits von Gut und Böse (Warum wir ohne Moral die besseren Menschen sind) http://www.schmidt-salomon.de/jvgub/home1.htm
    If you open your Mind too much, your Brain will fall out.

  8. #17
    Registriert seit
    11.12.2009
    Beiträge
    2.113
    Danke
    388
    Erhielt 390 Danke für 271 Beiträge

    Standard

    Ja... da stimme ich dir zu.

    Das weit verbreitete Ansehen von KI ist aber "Dem Mensch sehr ähnlich" und eine solche Maschine wird dir ohne "Moral" nichts bringen, denn nur Intelligenz allein bringt uns nicht zu der o.g. Betrachtungsweise.

    Ich hoffe du verstehst was ich ausdrücken will!

    Grüße

    Marcel

  9. #18
    Registriert seit
    07.03.2004
    Beiträge
    4.369
    Danke
    946
    Erhielt 1.158 Danke für 831 Beiträge

    Standard

    Zitat Zitat von Matze001 Beitrag anzeigen
    ...
    Das weit verbreitete Ansehen von KI ist aber "Dem Mensch sehr ähnlich"...
    Diese Sichtweise basiert aber auf Chauvinismus. Wenn man als Grundlage "Dem Menschen sehr ähnlich" ansetzt dann kann man außer Moral noch andere Sachen reinpacken die mit Intelligenz nichts zu tun haben. Vorliebe für Musik und Geschmack an gutem Essen und Trinken. Sowas hat nichts mit der Intelligenz zu tun. Wenn es so wäre, würden wir auch nicht essen was uns schmeckt sondern nur das was gesund ist und nur soviel wie wir brauchen.

    Ich will ja nicht auf der Interpretation und Wertung von Worten wie "Moral" herumreiten, aber letztens habe ich in einem Roman einen beeindruckendes Statement gelesen. Ein junger Mann indianischer Abstammung meinte zu dem hochbegabten Computerhacker, dass Intelligenz sowas wie Fieber im Kopf ist und man lieber nach Klugheit und Weisheit streben solle.

    Um eine Atombombe zu bauen muss man sicher intelligent sein, aber ob dies auch Weise ist, bleibt fraglich.

    Kennst Du die Szene am Ende des Films "WarGames"? Die wo WOPR scheinbar endlos TicTacToe spielt und plötzlich aufhört da er merkt das dieses Spiel keinen Sinn ergibt.
    If you open your Mind too much, your Brain will fall out.

  10. #19
    Registriert seit
    11.12.2009
    Beiträge
    2.113
    Danke
    388
    Erhielt 390 Danke für 271 Beiträge

    Standard

    Jup da gebe ich dir recht

    Aber wie gesagt, viele Menschen sehen bei KI nicht nur die Intelligenz... wobei es eigentlich nur genau das ist.
    Es wird dort viel hineininterpretiert, was mit dem Grundgedanken nichts zu tun hat.

    Die Frage ist auch: Was wäre wenn wir die perfekte KI hätten. Was würde sie können? Wie würde uns das nutzen?
    Würde es uns gar schaden?

    Grüße

    Marcel

  11. #20
    Registriert seit
    14.02.2012
    Beiträge
    21
    Danke
    3
    Erhielt 3 Danke für 3 Beiträge

    Standard


    Zuviel Werbung?
    -> Hier kostenlos registrieren
    Also ich finde im genannten Beispiel mit den Kindern wäre meiner Meinung nach auf jeden Fall der (die) Programmierer Schuld, da zu wenige Daten für die Beurteilung der Bedrohung ausgewertet wurden. Gesichtserkennung ist eine gängige Technik und somit sollte ein solcher utopischer Roboter erkennen können ob die Gemütslage der Kinder eher fröhlich oder aggressiv ist. Außerdem ist die Frage nach Körperkraft und Bewaffnung zu stellen und zu bewerten als Teil einer Bedrohung.

    Grundsätzlich stimmen die Einwände aber, das so etwas theoretisch möglich ist bei selbst lernenden Maschinen. Diverse Filme und Bücher haben sich mit solchen Utopien bereits beschäftigt.
    Selbst das Thema der Verwantwortung, also ob man sie der Maschine (Roboter/Cyborg) oder dem Erschaffer/Programmierer geben muss, wurde schon behandelt.

    Das Thema Moral ist meiner Meinung nach allerdings weiter entfernt als eine Umsetzung von guter Intelligenz. Gute Intelligenz beginnt ja schon dabei, das die Kaffeemaschine sich merkt welche Mengen ich regelmäßig einstelle und mir diese dann selbstständig anbietet. Bis hin zu "Schafhüter-robotern", die selbstständig lernen wie eine Herde Schafe optimaler einzufangen geht. Moral wird allerdings erst wichtig, wenn das "Verhalten" der Maschine Schäden an Mensch oder Umgebung verursachen könnte durch gegebene Autonomie.

    Interessant finde ich die Vorstellung was eine pefekte Intelligenz können müsste. Ich bin der Meinung, das eine solche Intelligenz eine eigene Moralvorstellung entwickeln würde.

    mfg lulex
    HIHI

Lesezeichen

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •