banner
Nachrichtenzentrum
Unsere Produkte sind mühelos, handlich und sicher in der Anwendung.

Trockene EEG-Sensoren steuern Armeeroboter

Aug 18, 2023

Die Brain-Machine-Interface-Technologie (BMI) wartet trotz all ihrer jahrzehntelangen Entwicklung immer noch auf eine breite Anwendung. Zu den Gründen gehören, dass Hardware und Software bei nicht-invasiven Ansätzen, bei denen auf der Kopfhaut angebrachte Elektroenzephalogramm-Sensoren (EEG) zum Einsatz kommen, der Aufgabe noch nicht gewachsen sind, und dass bei Ansätzen, die auf Gehirnimplantaten basieren, ein chirurgischer Eingriff erforderlich ist.

Nun haben Forscher der University of Technology Sydney (UTS), Australien, in Zusammenarbeit mit der australischen Armee tragbare Prototypen von Trockensensoren entwickelt, die 94 Prozent der Genauigkeit von Benchmark-Nasssensoren erreichen, jedoch ohne deren umständliche und lange Einrichtungszeit , Bedarf an unordentlichen Gelen und begrenzte Zuverlässigkeit außerhalb des Labors.

„Trockensensoren haben im Vergleich zu den Silber-auf-Silberchlorid-Nasssensoren des Goldstandards schlecht abgeschnitten“, sagt Francesca Iacopi von der UTS-Fakultät für Ingenieurwesen und Informationstechnologie. „Dies ist insbesondere bei der Überwachung von EEG-Signalen aus haarbedeckten, gekrümmten Bereichen der Kopfhaut der Fall. Deshalb sind sie nadelförmig, sperrig und für den Benutzer unbequem.“

„Wir haben [die neuen Sensoren] in einem Feldtest verwendet, um die freihändige Bedienung eines vierbeinigen Roboters ausschließlich mithilfe von Gehirnsignalen zu demonstrieren.“ – Francesca Iacopi, University of Technology Sydney

Iacopi hat zusammen mit Chin-Teng Lin, einem auf BMI-Algorithmusforschung spezialisierten Fakultätskollegen, dreidimensionale mikrostrukturierte Sensoren entwickelt, die subnanometerdickes epitaktisches Graphen für den Kontaktbereich verwenden. Die Sensoren können am Hinterkopf angebracht werden, der Stelle, an der sich EEG-Signale aus dem visuellen Kortex, dem Bereich des Gehirns, der visuelle Informationen verarbeitet, am besten erkennen lassen.

„Solange das Haar kurz ist, bieten die Sensoren ausreichend Hautkontakt und eine niedrige Impedanz, um auf Signal-Rausch-Basis gut mit Nasssensoren zu vergleichen“, sagt Iacopi. „Und wir haben sie in einem Feldtest eingesetzt, um die freihändige Bedienung eines vierbeinigen Roboters zu demonstrieren, bei dem nur Gehirnsignale zum Einsatz kommen.“

Die Sensoren werden auf einem Siliziumsubstrat hergestellt, auf dem eine Schicht aus kubischem Siliziumkarbid (3C-SiC) aufgetragen und mithilfe von Fotolithographie und Ätzen strukturiert wird, um etwa 10 Mikrometer dicke Designs zu bilden. Den Forschern zufolge sind dreidimensionale Designs entscheidend für einen guten Kontakt mit dem gekrümmten und behaarten Teil der Kopfhaut. Anschließend wird eine katalytische Legierungsmethode verwendet, um epitaktisches Graphen um die Oberfläche der strukturierten Struktur herum wachsen zu lassen.

Die Forscher entschieden sich für SiC auf Silizium, weil es einfacher zu strukturieren und mit Silizium zu integrieren ist als SiC allein. Und was Graphen betrifft: „Es ist extrem leitfähig, biokompatibel und widerstandsfähig und haftet stark an seinem Substrat“, sagt Iacopi. Darüber hinaus „kann es mit Feuchtigkeit versorgt werden und wie ein Schwamm wirken, der die Feuchtigkeit und den Schweiß auf der Haut aufsaugt, was ihre Leitfähigkeit erhöht und die Impedanz senkt.“

Gehirn-Robotik-Schnittstelle

Es wurden mehrere Muster getestet und eine sechseckige Struktur ausgewählt, die den besten Kontakt mit der Haut durch das Haar hindurch ermöglichte. Aus Gründen der Redundanz wurden acht Sensoren mit Stiftknöpfen an einem speziell angefertigten Sensorpad befestigt und dann an einem elastischen Stirnband angebracht, das um den Schädel des Bedieners gewickelt wurde. Alle acht Sensoren zeichneten EEG-Signale in unterschiedlichem Ausmaß auf, abhängig von ihrer Position und dem Druck des Stirnbandes, erklärt Lin. Die Ergebnisse der Tests wurden letzten Monat in Applied Nano Materials veröffentlicht.

Um die Sensoren zu testen, wird ein Bediener mit einer am Kopf montierten Augmented-Reality-Linse ausgestattet, die sechs weiße, flackernde Quadrate anzeigt, die verschiedene Befehle darstellen. Wenn sich ein Bediener auf ein bestimmtes Quadrat konzentriert, wird im visuellen Kortex ein bestimmtes kollektives Biopotential erzeugt und von den Sensoren erfasst. Das Signal wird über Bluetooth an einen Decoder in der Halterung gesendet, der das Signal in den beabsichtigten Befehl umwandelt und dann drahtlos an einen Empfänger im Roboter übermittelt.

„Das System kann derzeit bis zu neun Befehle ausgeben, obwohl nur sechs Befehle für die Verwendung mit den Graphen-Sensoren getestet und verifiziert wurden“, sagt Lin. „Jeder Befehl entspricht einer bestimmten Aktion oder Funktion, z. B. vorwärts gehen, rechts abbiegen oder anhalten. Wir werden in Zukunft weitere Befehle hinzufügen.“

Die australische Armee führte erfolgreich zwei Feldtests mit einem vierbeinigen Roboter durch. Im ersten Test ließ der Soldatenführer den Roboter einer Reihe visueller Führungen folgen, die über unebenem Boden angebracht waren. Beim zweiten Test übernahm der Bediener die Rolle eines Abschnittskommandanten. Er gab sowohl dem Roboter als auch den Soldaten des Teams Anweisungen, während sie eine simulierte Räumung mehrerer Gebäude in einem städtischen Kriegsumfeld durchführten, wobei der Roboter den Soldaten bei der Überprüfung der Gebäude vorausging.