Seite 1 von 15 1234511 ... LetzteLetzte
Ergebnis 1 bis 10 von 144

Thema: Roboter und Cyborg Technologie (Aktuelles und Visionen)

  1. #1
    Gast

    Roboter und Cyborg Technologie (Aktuelles und Visionen)

    Boston Dynamics Big Dog





    Erinnnert mich schon fast an Star Wars

  2. #2
    Administrator Avatar von zwirni
    Registriert seit
    25.02.2010
    Ort
    Meissen
    Beiträge
    129.288
    Mentioned
    186 Post(s)
    Follows
    0
    Following
    2
    Renommee: 38231

    Re: Roboter-Technik

    Hey....das ist ja Wahnsinn...ich wusste gar nicht das wir bei Robotertechnik schon soweit sind! *wow* Was da für Technik dahinter steck und das der so schnell reagiert.......

  3. #3
    Gast

    Re: Roboter-Technik

    Na dann schaut Euch mal diesen "Onkel" hier an!



    LG

  4. #4
    Gast

    Re: Roboter-Technik

    Sie gehen. Sie arbeiten. Neue DNA-Robots bauen ihre winzigen Sachen zusammen.
    Zum ersten Mal, mikroskopische Roboter aus DNA-Molekülen kann gehen, folgen Sie den Anweisungen und arbeiten zusammen, um einfache Produkte, die auf atomarer Skala Fließband montieren, imitieren die Maschinerie der lebenden Zellen, kündigte zwei unabhängigen Forscherteams Mittwoch.
    weiter hier: http://online.wsj.com/article/SB1000142 ... TopStories

    LG

  5. #5
    Gast

    Re: Roboter-Technik

    Silizium-Gefühle
    Roboter-Prototypen werden emotional


    Der Roboter Nao der Firma Aldebaran Robotics imitiert emotionales Verhalten.

    Forscherteam entwickelt robotische Wesen, die auf Gefühle reagieren und selbst welche zeigen können
    Hatfield - Ein europäisches Forscherteam ist dem emotionalen Roboter einen großen Schritt näher gekommen: Die Wissenschaftler haben Prototypen so programmiert, dass sie auf die Stimmung menschlicher Bezugspersonen reagieren und diverse Gefühle von Begeisterung bis Angst ausdrücken können.

    "Das Verhalten ist nach dem von Kleinkindern modelliert", sagt Projektleiterin Lola Cañamero von der Adaptive Systems Research Group an der University of Hertfordshire. Die Roboter wirken auch optisch ein wenig wie kleine Kinder, da es sich um Nao-Modelle des Projektpartners Aldebaran Robotics handelt.

    Ärger, Freude, Aufregung und Stolz

    Die Naos sind so programmiert, dass sie ähnlich wie Kinder auf Menschen reagieren und sich am Verhalten und der Stimmung menschlicher Betreuer orientieren. Je mehr ein kindlicher Roboter mit einer Person zu tun hat, desto mehr lernt er und desto enger wird die Beziehung. Wenn ein Nao sich in einer schwierigen Situation vernachlässigt fühlt, zeigt er sich sichtbar verzweifelt. Zudem können die Roboter beispielsweise Ärger, Freude, Aufregung oder Stolz zum Ausdruck bringen.

    Möglich macht das eine spezielle Programmierung. Sie orientiert sich an Modellen über die Art, wie Kleinkinder und Jungtiere bei höheren Primaten ihre sozialen Beziehungen entwickeln. "Wir arbeiten an nicht-verbalen Signalen und den Gefühlen, die sich in Haltung, Gesten und Bewegungen offenbaren statt durch Gesichtausdruck oder Worte", sagt Cañamero. Einzelne Roboter können dabei auch mit verschiedenen Persönlichkeiten ausgestattet werden, sodass sie auf unterschiedliche Personen besonders stark ansprechen.

    Reif für das Krankenhaus

    Die emotionalen Roboter sind das Ergebnis des EU-Projekts Feelix Growing, an dem auch Partner aus der Schweiz, Dänemark, Frankreich und Griechenland beteiligt waren. Nun werden die Prototypen weiterentwickelt und angepasst. Ziel ist es, robotische Gefährten für junge Diabetespatienten in Krankenhäusern zu entwickeln. Dazu werden die Erkenntnisse in das neue EU-Projekt ALI-ZE eingebracht, das sich mit der Langzeit-Interaktion von Menschen mit Robotern befasst.
    (red/pte)

    Quelle : der standart.at
    http://www.youtube.com/watch?v=K9nnOaCJTUk

  6. #6
    Super-Moderator Avatar von lamdacore
    Registriert seit
    06.04.2010
    Beiträge
    2.865
    Blog-Einträge
    4
    Mentioned
    67 Post(s)
    Follows
    1
    Following
    0
    Renommee: 28891

    Re: Roboter-Technik

    "Roboter sind gefährlich"

    Schon seit Jahren beschäftigt sich der Dortmunder Physiker und Friedensforscher Jürgen Altmann mit den Konsequenzen militärischer Anwendungen der Mikrosystem- und Nanotechnik. Als Gründungsmitglied des "International Committee for Robot Arms Control" (IRAC) setzt er sich für ein grundsätzliches Verbot von autonom feuernden Robotersystemen ein.

    Im Gespräch mit heise online legt Altmann dar, wie die Aufrüstung der Streitkräfte mit Robotersystemen zwar ihre eigene Sicherheit erhöhen kann – die Bedrohung aller anderen dadurch aber gleichzeitig zunimmt. Auch warnt der Friedensforscher davor, dass Entscheidungen auf politischer Ebene für einen Krieg künftig leichter fallen könnten, wenn keine Menschen, sondern nur Maschinen in eine Kampfzone geschickt werden.


    Jürgen Altmann, Physiker und Friedensforscher an der TU Dortmund und Mitbegründer des "International Committee for Robot Arms Control", über autonome Kampfroboter und die Möglichkeiten, sie zu verhindern.

    heise online: Herr Altmann, mögen Sie die "Terminator"-Filme?

    Altmann: Bislang habe ich noch keinen dieser Filme gesehen. Ich habe mir aber fest vorgenommen, das bald nachzuholen.

    heise online: Das kann nicht schaden. Immerhin gab es im Zusammenhang mit der Gründung des International Committee for Robot Arms Control (ICRAC) bereits Vorwürfe, Sie würden mit Science-Fiction-Szenarien irrationale Ängste schüren.

    Altmann: Wenn man Robotern, die mehr und mehr selbstständig handeln und Entscheidungen treffen, Waffen in die Hand gibt, kann es für die Menschheit gefährlich werden. Das ist weder irrational noch Science Fiction, liegt allerdings noch ein ganzes Stück in der Zukunft. Wir konzentrieren uns gegenwärtig auf die nächsten zehn bis zwanzig Jahre und versuchen, die für diese Zeit zu erwartende Entwicklung autonom entscheidender Kriegsmaschinen aufzuhalten.

    heise online: Wie kam es zur Gründung des Komitees?

    Altmann: Ich selbst beschäftige mich seit 2001 mit militärischen Anwendungen der Mikrosystem- und Nanotechnik. Dabei habe ich bewaffnete Robotersysteme als potenzielle Gefahr erkannt, die durch vorbeugende Verbote gebannt werden sollte. Im Rahmen meiner Studien habe ich selbst Artikel publiziert und die von Kollegen gelesen, die sich ebenfalls warnend zu Wort gemeldet haben. Das waren insbesondere der Robotikforscher Noel Sharkey aus England und der australische Philosoph Robert Sparrow. Am Rande einer Konferenz in Yorkshire ergab sich die Gelegenheit, die beiden persönlich zu treffen. Peter Asaro, Philosoph aus New York, war elektronisch dazu geschaltet. Der Gedankenaustausch führte dann schließlich dazu, dass wir im vergangenen September in Sheffield das ICRAC gegründet haben.

    heise online: Sie sagen, dass die Robotersysteme "gefährlich" werden könnten. Das ist bei militärischen Systemen ja durchaus beabsichtigt. Welche Gefahr sehen Sie genau?

    Altmann: Das ist ein weiter gefasster Gefahrenbegriff, der sich nicht allein auf die nationale Sicherheit beschränkt, sondern das gesamte internationale System gewissermaßen von oben betrachtet. Da erscheint es zunächst verständlich, dass Staaten durch die Aufrüstung ihrer Streitkräfte die Sicherheit für sich erhöhen wollen. Zugleich verstärken sie dadurch aber gleichzeitig die Bedrohung für alle anderen. Das ist das sogenannte Sicherheitsdilemma: Durch die Bemühungen um die eigene Sicherheit erhöht man die Gefahren und die Unsicherheit für alle. Zum Beispiel könnte die Entscheidung für einen Krieg auf der politischen Ebene leichter fallen, wenn keine Menschen, sondern nur Maschinen in die Kampfzone geschickt werden. Dann könnten autonome Waffensysteme in einer Krisensituation, möglicherweise aufgrund eines Sensor- oder Computerfehlers, einen Krieg auslösen. Kurze Vorwarnzeiten erhöhen die Gefahr, das ist schon im Zusammenhang mit Nuklearwaffen und Interkontinentalraketen ausführlich diskutiert worden. Stellen Sie sich etwa zwei Flotten von Drohnen vor, die entlang einer Grenze dicht nebeneinander fliegen und sich genau beobachten. Bei einem Angriff muss hier innerhalb von Sekundenbruchteilen über einen Gegenangriff entschieden werden. Bei einem Fehlalarm könnte der "Gegen"angriff einen Krieg auslösen, den beide Seiten eigentlich nicht wollen. Neben dieser Kriseninstabilität gibt es das Risiko der Weiterverbreitung der Technologie. Das besteht nicht nur auf staatlicher Ebene, vielmehr könnten Roboter auch von Kriminellen und Terroristen genutzt werden.

    heise online: Wie will das ICRAC dazu beitragen, diese Risiken einzudämmen?

    Altmann: Wir wollen eine internationale Debatte darüber in Gang bringen, inwieweit bewaffnete Roboter den Weltfrieden eher sichern oder ihn gefährden. Wir vermuten eher eine Gefährdung und drängen daher auf internationale Vereinbarungen zur Begrenzung solcher Systeme. Ich persönlich würde ein grundsätzliches Verbot bewaffneter unbemannter Systeme, mit Ausnahme der schon existierenden Raketen und Flugkörper, begrüßen. Die anderen Komiteemitglieder sind pragmatischer und wollen das Verbot auf autonom entscheidende Systeme beschränken. Sie fordern, dass immer ein Mensch die Entscheidung für den Waffeneinsatz treffen muss.

    heise online: Die Frage, ob der Mensch oder die Maschine entschieden hat, lässt sich aber möglicherweise nicht immer eindeutig beantworten. Die Autonomie ist ja nicht unbedingt schlagartig da, sondern entwickelt sich graduell, etwa in Gestalt einer zunehmenden Automatisierung bei der Aufbereitung der Sensordaten.

    Altmann: Das ist ein großes Problem. Es gibt handfeste militärische Gründe, den Entscheidungsprozess zu automatisieren. Bei der Steuerung eines unbemannten Systems über Satellit haben Sie Verzögerungen in der Größenordnung von einer Sekunde, die unter Umständen über Erhaltung oder Verlust des Systems entscheiden können. Neben diesem Drang zu schnelleren Reaktionszeiten gibt es das Motiv der Kostenersparnis. Gegenwärtig sind unbemannte Flugsysteme noch sehr personalintensiv. Dieser Aufwand ließe sich mit erhöhter Autonomie reduzieren, wenn ein Bediener einen ganzen Schwarm von Robotern überwachen würde. Der Mensch würde dann nicht mehr jede einzelne Aktion steuern, sondern eher allgemeine Anweisungen geben. Schließlich könnte die Funkverbindung gestört sein. Ohne ein explizites Verbot ist daher eine schleichende Entwicklung in Richtung autonom feuernder Roboter zu befürchten. Dabei gilt es, eine Formulierung zu finden, die die bereits existierenden automatischen Waffensysteme zur Flugabwehr oder Schiffsverteidigung zulässt, die Entwicklung neuer Systeme, die über ihre Ziele selbst entscheiden, aber klar verhindert.

    heise online: Militärvertreter betonen immer wieder, dass autonomes Feuern vom Militär nicht angestrebt werde. Beruhigt Sie das?

    Altmann: Das US-Verteidigungsministerium äußert sich ähnlich. Gleichwohl gibt es die eben genannten militärischen Motive zu erhöhter Autonomie. Und die USA werden es nicht immer so vergleichsweise leicht haben wie jetzt, wo sie einen Gegner mit sehr viel geringeren technischen Möglichkeiten bekämpfen. Wenn auch die Gegner über unbemannte Systeme verfügen, wird der Druck in Richtung Autonomie deutlich zunehmen.

    heise online: Künstliche Intelligenz ist ja längst keine Domäne großer Labors mehr, sondern wird von sehr vielen Forschern, teilweise sogar Hobbybastlern vorangetrieben. Lässt sich so eine Entwicklung überhaupt durch gesetzliche Regelungen in den Griff kriegen?

    Altmann: Ich denke schon, denn es stellen sich ja generelle Fragen, die auch den zivilen Einsatz von Robotern betreffen. Wie sollen sich Roboter im öffentlichen Raum Menschen gegenüber verhalten? Dürfen sie Fußwege, Radwege oder die Straße benutzen? Ein Waffenverbot für unbemannte Systeme ließe sich im Übrigen auch einigermaßen zuverlässig überprüfen, zumindest solange die Systeme bestimmte Größenordnungen nicht unterschreiten. Ich habe daher vorgeschlagen, eine Mindestgröße für frei bewegliche Roboter, auch im zivilen Bereich, zu vereinbaren. Schwieriger ist dagegen die Überprüfung, ob ein System ferngesteuert oder autonom handelt, denn das ist ihm von außen ja nicht anzusehen. Denkbar wäre aber in jedem Fall eine Verpflichtung zur lückenlosen Dokumentation aller Aktionen, um sie zumindest im Nachhinein beurteilen zu können.

    heise online: Geht es bei dieser Debatte nicht letztlich um unser generelles Verhältnis zu künstlicher Intelligenz?

    Altmann: Diese Frage schwingt im Hintergrund wohl immer mit. Es könnte sinnvoll sein, die Forschung insgesamt zu begrenzen. Wenn wir Maschinen nach dem Vorbild des Menschen bauen, mit all seinen Emotionen, Aggressionen und sonstigen Eigenheiten, mögen die sich eines Tages übers Internet zusammenschließen und zum Ergebnis kommen, dass sie die Menschen eigentlich nicht mehr brauchen. Solche Szenarien sind ja nicht völlig auszuschließen. Alle Entwicklungen, die in diese Richtung gehen, sollten zukünftig kritischer auf ihre ethischen Dimensionen geprüft werden.

    heise online: Sie sollten sich wirklich mal "Terminator" ansehen. Da wird der Krieg der Maschinen gegen die Menschen für das Jahr 2029 vorhergesagt.

    Altmann: Das erscheint mir als ziemlich früh. Es gibt einige Forscher, die eine technologische "Singularität", ab der die künstliche Intelligenz sich selbst weiter entwickelt, in einem ähnlichen Zeitrahmen erwarten, aber ich sehe das eher skeptisch. Bislang hat sich die künstliche Intelligenz ja viel langsamer entwickelt als ursprünglich erwartet.

    heise online: Wir können uns aber kaum darauf verlassen, dass es in diesem langsamen Tempo weitergeht. Es mag zukünftig auch sprunghafte Entwicklungen geben.

    Altmann: Völlig richtig. Das lässt sich nicht ausschließen, insbesondere wenn sie an lernfähige Systeme mit um Größenordnungen höherer Rechenleistung denken, die sich selbstständig weiterentwickeln. Schon bei elementaren Computersimulationen zu "artificial life" beobachtet man ja ganz unerwartetes emergentes Verhalten.

    heise online: Wie ist die bisherige Resonanz auf Ihre Initiative?

    Altmann: Zu unserem ersten Workshop im September haben sich eigentlich alle angemeldet, die sich mit Büchern oder Artikeln zum Thema geäußert haben. Nicht alle können kommen, aber das Interesse ist groß. Von Industrievertretern habe ich gehört, dass es dort wohl keine Probleme mit Verboten oder Rüstungsbeschränkungen gäbe. Entsprechenden politischen Entscheidungen würde man sich beugen. Beim Militär sehe ich, insbesondere in den USA, zwei Fraktionen. Die einen möchten die Entwicklung, gedeckt durch entsprechende Kongress-Beschlüsse, möglichst rasch vorantreiben. Andere mahnen zur Vorsicht und verweisen darauf, dass autonome Angriffsentscheidung durch das Völkerrecht nicht gedeckt ist, solange Maschinen eine komplexe Situation nicht genau so gut wie menschliche Befehlshaber beurteilen können. Dadurch fühlen wir uns ermutigt, ebenso durch die in jüngster Zeit erlassenen Verbote von Landminen und Streumunition. Bei Drohnen wird es allerdings schwieriger werden, Politik und Öffentlichkeit für das Thema zu sensibilisieren, weil die Opferzahlen geringer sind als bei Minen und Streubomben.

    heise online: Gibt es beim deutschen Militär Gesprächsbereitschaft zu dem Thema?

    Altmann: Auf informeller Ebene ja. Aber letztlich wird man dann immer auf die Führungsebene verwiesen. Von dort kenne ich bislang noch keine verbindlichen Erklärungen zur Frage der Bewaffnung von Robotern.
    Quelle: heise.de, ct

    Lebe dein Leben so wie es dir gefällt, ohne daß du Jemandem etwas aufdrängst!

    Der, der nicht weiß, und nicht weiß, daß er nicht weiß, ist ein Narr - meide ihn.
    Der, der nicht weiß, und weiß, daß er nicht weiß, ist ein Kind - lehre ihn.
    Der, der weiß, und nicht weiß, daß er weiß, schläft - erwecke ihn.
    Doch der, der weiß, und weiß, daß er weiß, ist ein Weiser - folge ihm.

  7. #7
    Erfahrener Benutzer Avatar von AreWe?
    Registriert seit
    20.07.2010
    Beiträge
    19.025
    Blog-Einträge
    173
    Mentioned
    234 Post(s)
    Follows
    0
    Following
    0
    Renommee: 399982

    Re: Roboter-Technik



    LG
    Bill Gates ist 100% Eugeniker!
    Leute! Denkt immer an: "Teile und herrsche", und fragt Euch wer der "Dritte" ist! Cui bono?
    1 + 1 = 2 (universell und ewig)
    Love, peace and freedom!

  8. #8
    Lisa
    Gast

    Re: Roboter-Technik

    Oh Mann!...*lach*

    Das ist ja der Oberhammer!!!


  9. #9
    Erfahrener Benutzer
    Registriert seit
    10.04.2010
    Beiträge
    518
    Mentioned
    0 Post(s)
    Follows
    0
    Following
    0
    Renommee: 10

    Re: Roboter-Technik

    .

  10. #10
    Super-Moderator Avatar von lamdacore
    Registriert seit
    06.04.2010
    Beiträge
    2.865
    Blog-Einträge
    4
    Mentioned
    67 Post(s)
    Follows
    1
    Following
    0
    Renommee: 28891

    Re: Roboter-Technik

    Beate Uhse - Arlam! :P

    Lebe dein Leben so wie es dir gefällt, ohne daß du Jemandem etwas aufdrängst!

    Der, der nicht weiß, und nicht weiß, daß er nicht weiß, ist ein Narr - meide ihn.
    Der, der nicht weiß, und weiß, daß er nicht weiß, ist ein Kind - lehre ihn.
    Der, der weiß, und nicht weiß, daß er weiß, schläft - erwecke ihn.
    Doch der, der weiß, und weiß, daß er weiß, ist ein Weiser - folge ihm.

Seite 1 von 15 1234511 ... LetzteLetzte

Aktive Benutzer

Aktive Benutzer

Aktive Benutzer in diesem Thema: 1 (Registrierte Benutzer: 0, Gäste: 1)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •