Nina Gaißert
Published: 2011
Total Pages: 205
Get eBook
Das wichtigste Werkzeug des Menschen sind seine Hande. Obwohl dieses Sprichwort schon sehr alt ist, ist nur wenig daruber bekannt, wie und was der Mensch wahrnimmt, wenn er Objekte in die Hand nimmt und betastet. Wie wird die ertastete Form eines Objektes im Gehirn abgespeichert? Ist die haptische Reprasentation ahnlich zu der, der visuellen Wahrnehmung? Entsteht sogar eine multisensorische, und somit gemeinsame, Reprasentation? Diese fundamentalen Fragen bilden den Hintergrund der vorliegenden Dissertation. Die hier dargestellten Experimente zeigen, dass der Mensch sehr ahnliche perzeptuelle Raume generiert, wenn komplexe Formen eines parametrisch definierten Objektraumes visuell oder haptisch exploriert werden. Um dies zu zeigen, wurde zuerst ein dreidimensionaler Objektraum muschelahnlicher Objekte generiert, welche in drei Formparametern variieren. Versuchspersonen wurden in den visuellen Versuchen Fotos oder virtuelle Rekonstruktionen der Objekte gezeigt, wahrend in den haptischen Versuchen 3D Plastikmodelle der Objekte, generiert mit einem 3D Drucker, mit verbundenen Augen betastet wurden. In einer ersten Reihe von Experimenten bewerteten die Versuchspersonen die Ahnlichkeit zweier, nacheinander gezeigter, Objekte. Mit diesen Ahnlichkeitsbewertungen und mit Hilfe des Verfahrens der multidimensionalen Skalierung wurden die perzeptuellen Raume beider Modalitaten visualisiert. Uberraschenderweise konnten die Versuchspersonen die Topologie des Objektraumes korrekt nachbilden, unabhangig davon, ob sie die Objekte gesehen oder betastet hatten. Weiterhin zeigten die Ergebnisse, dass der visuelle und der haptische perzeptuelle Raum fast identisch waren. Als nachstes wurden drei Kategorisierungsexperimente durchgefuhrt. Obwohl Kategorisierung allein durch den Tastsinn eher eine ungewohnliche Aufgabe ist, konnte sie genauso gut gelost werden, wie wenn die Versuchspersonen die Objekte sehen konnten. Anschliessend wurden die perzeptuellen Raume beider Modalitaten mit den Ergebnissen der Kategorisierungsexperimente verglichen. Fur alle Kategorisierungsexperimente und fur beide Modalitaten war die wahrgenommene Ahnlichkeit zwischen Objekten einer Kategorie hoher, als die Ahnlichkeit zweier Objekte aus unterschiedlichen Kategorien. Das heisst, dass, sowohl visuell als auch haptisch, Objekte in einer Kategorie zusammengruppiert wurden, die als sehr ahnlich wahrgenommen wurden.Um zu untersuchen, inwieweit die auf den computergenerierten Objekten basierenden Ergebnisse auf naturliche Objekte ubertragbar sind, wurde eine Sammlung von Muscheln und Salzwasserschnecken erstellt. Mit diesen wurden, wie oben beschrieben, Ahnlichkeitsbewertungen durchgefuhrt und mittels multidimensionaler Skalierung die perzeptuellen Raume visualisiert. Wiederum waren der visuelle und der haptische perzeptuelle Raum fast identisch. Interessanterweise konnte man in beiden Raumen eine Gruppenbildung erkennen, weshalb auch hier drei Kategorisierungsexperimente durchgefuhrt wurden. Obwohl die Muscheln in einer Vielzahl an Objektmerkmalen variierten, z.B. Form, Farbe, Muster etc., konnten die Versuchspersonen diese Aufgabe ohne Muhe losen, auch wenn sie die Objekte nur betasten durften. Zusatzlich konnte die Gruppenbildung, die schon in den perzeptuellen Raumen erkennbar war, die Kategorisierungsergebnisse richtig vorhersagen.Zusammengenommen weisen diese Ergebnisse darauf hin, dass die visuelle und die haptische Reprasentation von Objekten sehr eng miteinander verknupft sein mussen. Zusatzlich liefern die Experimente Hinweise darauf, dass die gleichen Prozesse genutzt werden, wenn Ahnlichkeiten zwischen Objekten wahrgenommen werden, oder Objekte kategorisiert werden, egal ob die Objekte visuell oder haptisch exploriert werden.