Sonar im Gaumen

Manche Blinde verfügen über erstaunliche Fähigkeiten, sich anhand selbst erzeugter Töne und ihrer Echos zu orientieren. In Deutschland ist diese Methode noch wenig verbreitet – obwohl Studien zeigen, wie gut sie funktioniert.

Sein Lieblingssport? „Fußball“, sagt Jason ohne zu zögern. „Fußball macht Spaß.“ Er überlegt kurz. Seine braunen Augen irren in die Ferne. „Und Judo“, ergänzt er dann. Er lässt seinen Langstock von links nach rechts pendeln und geht etwas schneller. „Judo ist insgesamt sehr beliebt an der Schule.“ Warum das so ist? Er zuckt mit den Achseln. „Vielleicht, weil man dafür nicht sehen können muss.“

Die Sonne hat an diesem Spätherbsttag in Marburg keine Chance. Das wenige Licht, das durch die graue Wolkendecke auf das Gelände der deutschen Blindenstudienanstalt Blista fällt, wirft keine Schatten. Ein paar hundert Meter entfernt erhebt sich das Landgrafenschloss imposant über die Altstadt. Jason bleibt dieser Anblick verschlossen: Er ist blind. Kurz nach seiner Geburt verlor der Zwölfjährige sein Augenlicht. Viele seiner Klassenkameraden können zumindest noch Helligkeitsunterschiede oder Schemen erkennen. Bei ihm ist das anders. Solange er zurückdenken kann, umgibt ihn pechschwarze Nacht.

Beim Kicken ist das kein großes Problem – in den Ball sind Rasseln eingenäht; er klingt daher so etwa wie der Schellenring einer Samba-Kombo. Denn wenn das Augenlicht fehlt, werden Geräusche für die Orientierung umso wichtiger: das „Tack – Tack – Tack“ der Ampel. Das schnelle Piepen, wenn sie auf grün schaltet. Schlagende Türen. Sich nähernde Schritte. Stimmen. Raschelndes Laub. Ein Ort ohne Geräusche ist dagegen doppelt dunkel: ein schwarzes Loch.

Jason wird langsamer. Seit anderthalb Jahren besucht er nun die Carl-Strehl-Schule der Blista. Die meisten Wege auf dem Internats-Gelände kennt er inzwischen in- und auswendig. Hier am Oberstufen-Gebäude ist er allerdings erst selten gewesen. Er öffnet den Mund und stößt eine Serie kurzer Klicklaute aus. Dann ertastet er die Tür und öffnet sie.

Jason ist seit seiner Kindheit blind. Er orientiert sich mit dem Langstock, aber auch mit Hilfe von Klicklauten, die er mit der Zunge erzeugt und für eine Art Echo-Ortung nutzt. (c) Frank Luerweg
Jason ist seit seiner Kindheit blind. Er orientiert sich mit dem Langstock, aber auch mit Hilfe von Klicklauten, die er mit der Zunge erzeugt und für eine Art Echo-Ortung nutzt. (c) Frank Luerweg

Das Klicken ist gewissermaßen Jasons Taschenlampe. Kein gleißender LED-Strahler, das nicht. Eher eine trübe Funzel, die nur Schemen hervortreten lässt. Aber immerhin: Mit Hilfe seiner Zungenschnalzer verschafft er sich eine grobe Vorstellung davon, was sich vor oder neben ihm befindet: Eine Wand. Ein Durchgang. Ein Auto. Wie er das weiß, kann er selbst nicht so ganz genau erklären. „Je nach Umgebung gibt es mehr oder weniger Schall“, sagt er vage.

Dass Sehbehinderte sich anhand von Echos orientieren, ist eigentlich nichts Ungewöhnliches. Allerdings machen sie das meist mehr oder weniger unbewusst: Die eigenen Schritte hallen in großen Räumen stärker als in kleinen; das schleifende Geräusch des Langstocks klingt in der Nähe einer Mauer anders als auf einem breiten Weg. Der reflektierte Schall liefert ihnen so wichtige Hinweise darauf, wo sie sich gerade befinden.

Fledermäuse nutzen diese Informationsquelle sehr gezielt. Der US-amerikanische Zoologe Donald R. Griffin hatte bereits in den 1930er Jahren erkannt, dass sie dazu Ultraschall-Pulse erzeugen. 1944 prägte er für die Fähigkeit, sich anhand von Echos zu orientieren, den Begriff „Echo-Lokalisation“. Auch manche Blinde verlassen sich nicht auf zufällige Schallreflexe, sondern produzieren ganz bewusst Töne, um sich besser zurecht zu finden. In Deutschland nutzen bislang nur Wenige diese Art der Orientierung, anders als etwa in den Niederlanden oder Österreich. „In meiner Klasse gibt es nur einen, der das auch macht“, sagt Jason.

Für „das“ hat sich statt des sperrigen Echo-Lokalisation hierzulande inzwischen der eingängigere Begriff Klicksonar eingebürgert. Die meisten Sehbehinderten, die sich so orientieren, erzeugen dazu nämlich mit ihrer Zunge ganz ähnliche Klicklaute wie Jason. Wissenschaftler haben inzwischen damit begonnen, die dabei erzeugten Schall-Pulse systematisch zu untersuchen. Die bislang wohl umfangreichste Analyse ist erst vor wenigen Monaten erschienen – ein Gemeinschaftsprojekt, an dem Forscher aus dem Vereinigten Königreich, aus China und den USA beteiligt waren. Fast 10.000 Zungenschnalzer haben sie darin ausgewertet.

Der typische Klick-Laut währt demnach nur drei oder vier Millisekunden (eine Millisekunde ist eine tausendstel Sekunde). Dadurch sinkt die Gefahr, dass das Echo bereits zurückkommt, während der Mund noch den Puls erzeugt. Der Schallreflex wäre sonst schwerer zu hören. Die Klicks breiten sich zudem etwas gerichteter aus als beispielsweise Sprache. Mit dem Sonar lassen sich also vergleichsweise gezielt bestimmte Regionen im Raum erkunden.

Ein weiterer Befund: Jeder Mensch „klickt“ zwar etwas anders. Wenn man mehrere Pulse von ein und derselben Person vergleicht, sind diese einander aber frappierend ähnlich. Beides deckt sich mit den Ergebnissen früherer Studien. Die individuelle Klang-Signatur erleichtert es Blinden vermutlich, die Echos aus Umgebungsgeräuschen herauszuhören – ähnlich, wie einem eine vertraute Stimme aus einer Gruppe redender Menschen „ins Ohr sticht“.

Wichtig ist noch ein zusätzlicher Punkt: die spektrale Zusammensetzung. Jeder Klick-Puls enthält viele verschiedene Frequenzen; er ist „breitbandig“. Dadurch kann das Sonar mehr Informationen liefern. Wie bedeutsam das ist, weiß jeder, der schon einmal für eine Party die weiße Glühbirne im Wohnzimmer gegen eine rote ersetzt hat. Im Schein des (schmalbandigen) Rotlichts sind die Gegenstände im Raum viel schlechter zu erkennen.

Der US-Amerikaner Daniel Kish hat diese Vorzüge früh für sich entdeckt. Der heute 52-Jährige erkrankte als Kleinkind beidseitig an einem bösartigen Tumor der Netzhaut. Im Alter von sieben Monaten entfernten ihm die Ärzte sein rechtes Auge. Sein linkes folgte ein halbes Jahr später. Irgendwann begann er, mit seinem Mund Klick-Töne zu erzeugen und so Informationen über seine Umgebung zu gewinnen. Inzwischen bringt er die Methode Kindern und Jugendlichen rund um den Globus bei, in Australien, Belize und Chile, aber auch in Deutschland.

Wozu ihn sein Sonar befähigt, ist in der Tat bemerkenswert. Auf der Webseite seiner Non-Profit-Organisation „World Access for the Blind” sind Videos zu sehen, die ihn beim Mountainbiken zeigen; SPIEGEL TV hat ihn vor einiger Zeit zusammen mit seinen Schülern beim Bergwandern in den Canyons Kaliforniens gefilmt, spektakulär am Rande Schwindel erregender Schluchten. „Ich habe ein Blickfeld von 360 Grad“, sagte er 2015 in einem Interview. „Mein Sonar arbeitet ebenso gut hinter mir wie vor mir. Es funktioniert um die Ecke und durch Oberflächen.“

Kein Wunder, dass Kish in den Medien schnell ein zugkräftiger Name verpasst wurde: „real-life Batman“ – der Mann, der sich so gut orientieren kann wie eine Fledermaus. Ein Label, das dem Münchner Neurobiologen Lutz Wiegrebe nur ein Schnauben entlockt. „Fledermäuse sind uns Menschen haushoch überlegen“, betont er. „Einfach deshalb, weil sie in 50 Millionen Jahre Evolution hoch spezialisierte Strukturen für die Echo-Ortung entwickelt haben.“ Diesen Vorsprung könnten Menschen in den 80 oder 100 Jahre, die sie leben, niemals aufholen. „Wir können das nur mehr schlecht als recht imitieren.“

Wiegrebe hat selbst schon mit Daniel Kish zusammengearbeitet. Auch ihn erfüllt mit Hochachtung, was der US-Amerikaner mit seinen Klick-Lauten wahrzunehmen im Stande ist. Der Medienhype habe der Sache aber womöglich nicht nur genutzt. „Es kann gut sein, dass durch derartige Berichte Erwartungen geweckt werden, die sich später nicht erfüllen“, sagt er. „Hinter dem, was Daniel Kish macht, steckt lebenslanges Training. Und auch Daniel Kish geht, vermute ich, nicht jeden Tag Fahrrad fahren.“

Niemand dürfe erwarten, dass er sich mit Echo-Ortung so orientieren könne wie ein sehender Mensch. Das sei völlig unmöglich. Gleichzeitig ist Wiegrebe aber davon überzeugt, dass es sich für jeden Blinden lohnen würde, die Methode zu trainieren. „Es ist ein extrem hilfreiches Tool“, betont er. „Eines, das die Navigation deutlich einfacher machen kann und für das man keinerlei zusätzlichen Hilfsmittel benötigt!“

„Klick – Klick – Klick.“ In Marburg, fünf Autostunden weiter nördlich, betritt Jason gerade fremdes Terrain: einen Aufenthaltsraum für die Oberstufe. Es ist halb eins; die Schülerinnen und Schüler sind noch im Unterricht, die Stühle leer. „Ein sehr großer Raum“, stellt Jason etwas überrascht fest. „Klick – Klick.“ Vorsichtig schreitet er voran. Er touchiert einen Stuhl und schiebt ihn beiseite. Sein Sonar funktioniere am besten für Objekte auf Augenhöhe, hat er vorhin erzählt. Normalerweise benutzt er daher zusätzlich den Langstock, vor allem in fremden Umgebungen. Heute jedoch nicht. Er geht weiter, Schritt für Schritt, immer wieder klickend. Nach etwa zehn Metern bleibt er stehen. „Dort ist ein Fenster“, sagt er und deutet auf die Scheibe vor ihm.

Aus Echos lassen sich jede Menge Informationen gewinnen. Zum Einen bewegt Schall sich nicht unendlich schnell. In einer Sekunde legt er rund 340 Meter zurück. Wir nutzen das etwa aus, wenn wir die die Entfernung zu einem Gewitter schätzen: Eigentlich erfolgen Blitz und Donner gleichzeitig. Licht ist jedoch viel schneller als Schall. Aus einem Kilometer Entfernung sehen wir den Blitz daher fast ohne Verzögerung. Der Donner kommt dagegen erst drei Sekunden später bei uns an.

Der Klicklaut braucht von Jasons Mund zum Fenster und wieder zurück zu seinen Ohren ebenfalls ein kleines Weilchen. Bei zwei Metern Abstand sind es etwa zwölf Millisekunden, bei einem Meter nur sechs. Daraus kann er die Entfernung zur Scheibe abschätzen. Allerdings hat das menschliche Gehör nur ein begrenztes zeitliches Auflösungsvermögen. Ob das Echo nach zwölf oder nach sechs Millisekunden kommt, kann unser Gehirn noch unterscheiden. Laufzeitunterschiede von weniger als zwei Millisekunden entgehen ihm dagegen. Wenn ein Gegenstand 120 cm entfernt ist und ein zweiter 150 cm, lässt sich das daher allein aus der Laufzeit der Echos nicht heraus hören.

Dennoch können manche Blinde Studien zufolge noch Distanzunterschiede von gut zehn Zentimetern erlauschen. Möglicherweise stützen sie sich dabei auf ein Phänomen, das im Englischen unter dem Namen „repetition pitch“ (frei übersetzt: Tonhöhenänderung bei Wiederholung) firmiert. Dieser Effekt tritt ein, wenn das Echo sehr kurz nach seinem Auslöser bei den Ohren ankommt: Wir nehmen beide dann als einen einzigen Ton wahr, der allerdings etwas höher klingt als das Original. Je schneller Echo und Originalton aufeinander folgen, desto stärker wird diese scheinbare Tonhöhenverschiebung.

Wenn Jason ein Fenster erklickt, weiß er aber nicht nur seinen ungefähren Abstand. Er kann auch sagen, ob es sich direkt vor ihm befindet oder etwas weiter rechts oder links. Denn was seine beiden Ohren hören, ist nicht identisch. Sein Gehirn setzt diese Abweichungen zu einem räumlichen Eindruck zusammen. Es wertet dazu nicht nur Unterschiede in der Lautstärke des Echos aus, sondern vergleicht auch, wann es beim linken Trommelfell ankommt und wann beim rechten.

Diese Fähigkeit besitzt im Prinzip jeder Mensch mit einem intakten Hörvermögen. Bei Beethovens „Ode an die Freude“ hören wir daher mit geschlossenen Augen, wo die Streicher sitzen und wo die Pauken. Viele Blinde haben es bei der Positionsbestimmung aber zu besonderer Meisterschaft gebracht. Das belegt etwa eine Studie des US-Wissenschaftlers Santani Teng aus dem Jahr 2012. Auf einem Tisch platzierte er einen Rahmen, in dem übereinander zwei runde Plastikscheiben angebracht waren. Diese ließen sich getrennt voneinander nach links und rechts bewegen. Teng bat nun blinde Probanden, die Position der beiden Scheiben zueinander zu erklicken: Befanden sie sich exakt übereinander? Oder waren sie leicht gegeneinander verschoben? Die Testdistanz betrug einen Meter. Die besten Teilnehmer bemerkten es aus diesem Abstand sogar, wenn eine der Scheiben nur zwei Zentimeter weiter rechts saß als die andere.

Untersuchungen wie diese belegen, dass Sehbehinderte aus Echos oft erstaunlich detaillierte Informationen über ihre Umgebung gewinnen können. In wissenschaftlichen Studien erklickten Blinde noch Gegenstände von knapp drei Zentimetern Durchmesser und bemerkten minimale Größenunterschiede. Sie erkannten, ob sie flache oder gewölbe Objekte vor sich hatten oder ob diese rund, quadratisch oder dreieckig waren. Andere unterschieden mit einem Zungenschnalzen zwischen verschiedenen Materialien – vermutlich durch Auswertung der reflektierten Frequenzen. In den meisten Fällen waren sie Sehenden, denen man die Augen verbunden hatte, bei solchen Aufgaben weit überlegen.

Am besten schneiden regelmäßig Testpersonen ab, die ihr Sehvermögen sehr früh verloren haben. Woran liegt das? Wer nach einer Antwort auf diese Frage sucht, spricht am besten mit der Psychologin Lore Thaler. Die gebürtige Deutsche ist heute Professorin an der Universität im nordenglischen Durham. Sie gilt als eine der führenden Wissenschaftlerinnen auf dem Gebiet der menschlichen Echo-Ortung. Im Jahr 2011 hat sie weltweit erstmalig untersucht, wie die Signale des Klicksonars im Gehirn verarbeitet werden. Dazu zeichnete sie die Hirnaktivität von blinden Versuchspersonen in einem Magnetresonanz-Tomografen auf.

Währenddessen spielte sie ihnen zwei verschiedene Tonsequenzen vor. Eine davon hatte sie aufgenommen, während ihre Probanden vor einer Straßenlaterne standen und diese mit ihrem Sonar zu lokalisieren versuchten. Bei der anderen handelte es sich um eine fast exakte Kopie der ersten. Der einzige Unterschied: Sie hatte zuvor die Echos der Klicklaute elektronisch entfernt. Wenn sie nun die bei Anhören der beiden Audiodateien aufgezeichneten Hirnscans miteinander verglich, zeigte sich ein interessanter Unterschied: Bei Anwesenheit des Echos wurden bestimmte Hirnregionen stärker aktiviert – und zwar solche, die klassischerweise zum visuellen Cortex gezählt werden, also normalerweise für die ersten Verarbeitungsschritte von Seheindrücken zuständig sind. In den Hörzentren der Hirnrinde waren die Aktivitätsmuster dagegen bei beiden Aufnahmen identisch.

Die Echos wurden also anscheinend im Sehzentrum analysiert. Interessanterweise galt das aber nur bei den blinden Teilnehmern, nicht aber bei Probanden mit intaktem Sehsinn (siehe aber auch „Echos sehen“). „Das kann einfach ein Trainings-Effekt sein“, sagt Lore Thaler. „Es ist aber auch möglich, dass sich das Gehirn von Blinden reorganisiert.“ Das wäre zumindest ökonomisch: Experten nehmen an, dass die Hälfte der Großhirnrinde an der Verarbeitung visueller Reize beteiligt ist. Bei einem Verlust des Augenlichts lägen weite Areale also einfach brach, würden sie nicht anders genutzt. Im Gehirn gibt es zum Beispiel eine Region, die vor allem dann anspricht, wenn wir irgendwo ein geschriebenes Wort sehen. Durch Blindenschrift wird dieses Zentrum ebenfalls aktiviert.

Dass das Klicksonar in Teilen des Gehirns verarbeitet wird, die bislang dem Sehen vorbehalten schienen, wird inzwischen durch eine Reihe weiterer Belege gestützt: Wenn Blinde die Bewegungsrichtung eines Objekts erklicken, springen bei ihnen visuelle Bewegungszentren an. Wenn sie Materialien unterscheiden, steigt die Aktivität in einer Region, die auch bei Sehenden an der Verarbeitung von Materialeigenschaften beteiligt ist. Ähnliches gilt für die Wahrnehmung von Formen.

Möglicherweise zeigt sich beim Klicksonar sogar ein Effekt, für den Hirnforscher den Begriff „topografische Repräsentation“ geprägt haben. Wenn ein Bild auf unsere Netzhaut fällt – zum Beispiel ein weißer Strich vor einem schwarzen Hintergrund –, dann werden in unserer Hirnrinde zahlreiche Nervenzellen angeregt. Diese sind aber nicht wahllos verteilt, sondern ebenfalls wie ein Strich angeordnet. Das räumliche Aktivitätsmuster der Nervenzellen im visuellen Cortex ähnelt also dem Bild, das wir sehen. Ähnliches gilt eventuell auch bei Blinden: Echos, die von nebeneinander liegenden Objekten reflektiert wurden, scheinen ebenfalls in nebeneinander liegenden Arealen verarbeitet zu werden. Allerdings ist die räumliche Auflösung der Hirnscan-Bilder begrenzt; ob es wirklich so ist, müssen daher weitere Arbeiten zeigen.

Vor dem Hintergrund dieser Ergebnisse scheint es nicht weiter verwunderlich, dass erfahrene „Klicker“ offensichtlich ein deutlich besseres Raumgefühl haben. Sie können beispielsweise treffsicherer einschätzen, wie Gegenstände im Raum zueinander orientiert sind. Oder, wie Daniel Kish es ausdrückt: Das Klicken liefere ihm eine Art unscharfe 3D-Geometrie seiner Umgebung. Sein Gehirn forme dazu auf Basis der Echos Bilder in seiner visuellen Hirnrinde. „Wenn ich einen Baum vor mir habe, analysiere ich nicht etwa die Sound-Schnipsel, die von ihm reflektieren, und weiß dann: das ist ein Baum“, betont er. „Nein, er erscheint in mir einfach als ein Baum.“

Lore Thaler kennt den Kalifornier übrigens; sie hat – wir Lutz Wiegrebe auch – in einigen ihrer Studien mit ihm zusammen gearbeitet. Bei ihm, der sein Sonar seit frühester Kindheit nutzt, zeigen sich die oben geschilderten Effekte im Gehirn besonders stark. Dennoch betont Thaler, Echo-Ortung sei nichts, was nur besonders talentierte Menschen könnten. „Das ist kein ‘Superskill’“, betont sie. „Nicht jeder wird die Methode so gut beherrschen wie Daniel Kish. Aber jeder kann sie nutzen, sie ist für jeden hilfreich – mal mehr, mal weniger.“

Reinhard Eiler sieht das ähnlich. Der Reha-Lehrer leitet an der Blista in Marburg eine Klicksonar-AG. In ihr können Schüler die Echo-Ortung erlernen und trainieren. „Jeder Blinde sollte diese Fertigkeit zumindest kennen, um zu wissen, ob sie etwas für ihn ist und was sie ihm bringt“, betont er. Auch deshalb, weil sie Menschen mit schlechtem Sehvermögen deutlich autonomer machen könne. Als Beispiel nennt er die Leitlinien, die in Marburg überall zu finden sind – das sind besondere Gehwegplatten mit Rillen, die sich mit dem Langstock ertasten lassen und Sehbehinderten so die Richtung weisen. „In den USA möchte man, dass die Betroffenen möglichst wenig auf solche Hilfen angewiesen sind“, sagt er. „Wir in Deutschland sind dagegen sehr auf Sicherheit bedacht. Darum arbeiten wir noch sehr stockzentriert. Davon weg zu kommen, vom reinen Tasten zum Hören, fällt schwer.“

Doch auch hierzulande fasst das Klicksonar langsam Fuß. Im Bereich der Frühförderung habe Deutschland inzwischen sogar eine führende Rolle übernommen, betont Kish. Er findet das extrem wichtig: „Wer sich nicht selbstständig orientieren kann, in dem verfestigt sich schnell die Vorstellung, er sei auf andere angewiesen.“ Er nennt das „Abhängigkeits-Konditionierung“. Sie sei ein Grund dafür, dass es vielen Blinden im Erwachsenenalter an Selbstvertrauen fehle, eigenständig zurecht zu kommen.

Ein Projekt des Landschaftsverbandes Rheinland (LVR) macht Hoffnung, dass sich das bald ändern könnte. Seit Februar 2016 erlernen darin Frühförderer in Aachen, Düsseldorf, Duisburg, Düren und Bonn die Grundlagen der Echo-Ortung. Diese bringen sie anschließend blinden Kindern bei – alles unter wissenschaftlicher Begleitung. „Seit etwa vier oder fünf Jahren werden immer mehr Eltern auf das Klicksonar aufmerksam“, sagt der Kölner Mobilitätstrainer und Projektmitarbeiter Klaus Mönkemeyer. „Im Frühförderbereich gibt es meines Wissens aber immer noch kein Lehrangebot, das Kinder systematisch an die Echo-Lokalisation heran führt.“ Jason etwa hat sich diese Fähigkeit selbst beigebracht; er beherrscht sie, solange er zurück denken kann.

Im LVR-Projekt sind die Erfahrungen bislang gemischt. „Wir haben einige Kinder, die das inzwischen sehr gut können“, resümiert Mönkemeyer. „Andere haben allein schon Schwierigkeiten, die Klicklaute zu erzeugen.“ Insgesamt zeigen Forschungsergebnisse jedoch, dass das Klicksonar umso mehr bringt, je früher man damit beginnt. „Das ist wie bei Sprachen“, vermutet Jason. „Wenn man spät anfängt, kann man das nicht so gut.“

Lutz Wiegrebe, der Neurobiologe an der Ludwig-Maximilians-Universität München, möchte Kindern und Erwachsenen die Echo-Ortung künftig mit einer etwas ungewöhnlichen Idee schmackhaft machen: mit einer Art Computerspiel. Zusammen mit Kollegen hat er eine Methode ersonnen, um aus Klicklauten im Rechner künstliche Echos zu erzeugen – und zwar abhängig von einer virtuellen Umgebung.

Bislang setzt er diese Technologie vor allem ein, um unter streng standardisierten Bedingungen zu messen, wie gut Blinde Gegenstände orten könne. Die Testperson klickt dazu in ein Mikrofon. Der Algorithmus berechnet dann, welches Echo an ihren Ohren ankommen würde, wenn sich beispielsweise 170 Zentimeter vor ihr eine Wand befände. Der Rechner kann sogar die Kopfbewegungen des Probanden aufzeichnen und bei den Kalkulationen berücksichtigen. „Die Signalverarbeitung ist momentan noch sehr aufwändig“, gibt Wiegrebe zu. „Wir hoffen aber, dass das irgendwann auch am Computer zuhause funktioniert. Die Leute könnten das dann trainieren, ohne sich zu verletzen oder zu blamieren. Bis wir da hinkommen, dauert es aber sicher noch ein paar Jahre.“

Jason ist mit den Fähigkeiten seines Sonars zufrieden, auch ohne weiteres Training: „Das reicht mir so eigentlich aus.“ Er klickt ein paar Mal, öffnet die Tür und verschwindet in seinem Wohnheim – keine Mensch gewordene Fledermaus, sondern ein ganz normaler Junge.

(geschrieben für Bild der Wissenschaft)

Echos sehen

Dass für die Echo-Ortung Teile des Sehzentrums genutzt werden, ist möglicherweise nicht nur bei Blinden so. In diese Richtung deuten zumindest die Ergebnisse einer gerade veröffentlichten Studie. Darin sollten Sehende versuchen, die Größe zweier runder Scheiben zu „erklicken“. Dabei trugen sie eine lichtdichte Brille, an deren Innenseite LED-Lichter angebracht waren.

Wurden diese Lichter während des Experiments angeschaltet, schnitten die Versuchsteilnehmer schlechter ab. Es fiel ihnen also schwerer, anhand des Echos zu sagen, welche der Scheiben die größere war. Die Wissenschaftler vermuten, dass der Lichtreiz zu einer zusätzlichen Beanspruchung des Sehzentrums führte. Dieses hatte also nicht mehr so viele Kapazitäten frei, um zusätzlich noch die Echos zu verarbeiten.

Um alternative Effekte auszuschließen, wiederholten die Forscher ihren Versuch mit einem anderen Reiz: Sie verabreichten ihren Probanden leichte Elektroschocks, die diese als Kribbeln auf der Haut wahrnahmen. Die LED-Lichter blieben in diesem Fall dunkel. Das taktile Signal hatte auf die Echo-Ortungs-Fähigkeiten der Teilnehmer keinerlei Auswirkungen.