Gibt es Roboter, die allein denken können?

 

Roboter vollbringen keine Gehirnleistung. Sie können immer nur so schlau sein wie der Mensch, der sie programmiert hat. Quelle: © Lightspring, Shutterstock

Rasant entwickelt sich die Computer- und Robotertechnologie weiter. Ist es heute schon so, dass die Roboter den Mensch eigentlich nicht mehr benötigen? Melanie , 9 Jahre, möchte wissen, ob es schon vollkommen selbständige Roboter gibt.

Die Forschung in dieser Richung steckt noch in den Kinderschuhen, obwohl „Künstliche Intelligenz“, wie man das nennt, immer wichtiger wird.  Noch benötigen Roboter Befehle, die von Menschen programmiert werden. Doch gibt es schon Roboter, die aus ihren eigenen Fehlern lernen, das heißt ihre eigenen Aktionen in gewisser Weise steuern und bestimmte Fehler nicht noch einmal machen, ohne dass das programmiert werden muss.

Weil es absehbar ist, dass Roboter irgendwann in der Zukunft alleine Entscheidungen treffen müssen (zum Beispiel bei Weltraumeinsätzen oder in unwegsamen, menschenfeindlichen Umgebungen), hat der Wissenschaftler und Schriftsteller Isaac Asimov schon in den 1950er Jahren die „Robotergesetze“ für selbständige Roboter entworfen. Das wichtigste Gesetz besagt, dass ein Roboter niemals einem Menschen Schaden zufügen darf.

Wenn Roboter „denken“ ist das nicht mit menschlichem Beweusstsein vergleichbar. Computer und Roboter sind programmiert und können demnach immer nur so schlau sein, wie der jeweilige Mensch, der sie entwickelt hat.