Künstliche Intelligenz hilft ALS-Patienten beim Kommunizieren
Künstliche Intelligenz ermöglicht es Menschen mit Amyotropher Lateralsklerose (ALS), einer unheilbaren Nervenerkrankung, zu kommunizieren.

Das Wichtigste in Kürze
- Ein KI-Avatar hilft Menschen mit Amyotropher Lateralsklerose (ALS) beim Sprechen.
- Das System wurde mithilfe von natürlicher Stimme und Bewegungsmustern trainiert.
- Der Avatar kann aber noch nicht immer genau mit den Augenbewegungen mithalten.
Ein digitaler Avatar ermöglicht es Menschen mit Amyotropher Lateralsklerose (ALS), einer unheilbaren Nervenerkrankung, ihre Kommunikationsfähigkeit wiederzugewinnen. Dieses innovative Projekt wurde kürzlich im Wiener Parlament vorgestellt, wie «ORF» berichtet.
Künstliche Intelligenz (KI) half dabei, diesen virtuellen Charakter zu entwickeln. Erin Taylor, eine 25-jährige Amerikanerin, leidet seit zwei Jahren an ALS. Die Krankheit führt zur Lähmung der Muskulatur und hat Taylors Fähigkeit zu sprechen stark beeinträchtigt.
Mit Taylors natürlicher Stimme und Bewegungsmustern wurde der Avatar trainiert. Durch Augenbewegungen kann Taylor nun ihren digitalen Stellvertreter steuern.
Avatar funktioniert noch nicht reibungslos
Trotz seiner beeindruckenden Fähigkeiten ist der digitale Assistent noch nicht perfekt und die Künstliche Intelligenz wird kontinuierlich weiterentwickelt. Taylor selbst unterstützt aktiv bei dieser Entwicklung und beim Testen der Technologien.
Der Avatar wurde von der britischen Scott-Morgan-Foundation entwickelt. Eine Organisation, die sich auf technologische Hilfsmittel für Menschen mit eingeschränkter Mobilität und Sprache spezialisiert hat.
Der virtuelle Charakter nutzt eine Kombination aus einer kreisförmigen Tastaturschnittstelle, vorausschauender KI und Eye-Tracking-Technologie. Dies ermöglicht es Betroffenen, nahezu in Echtzeit Wörter zu schreiben und in gesprochene Sprache zu übersetzen, so der Sender.
Künstliche Intelligenz soll in verschiedenen Sprachen kommunizieren können
Eric Kern, Chefentwickler bei der Scott-Morgan-Foundation erklärt: «Unsere Augen bewegen sich in Kreisbahnen. Die rund angeordnete Tastatur ermöglicht es, die Worte und Sätze auf eine sehr natürliche Art zu formen».
Der Avatar kann aber noch nicht immer genau mit den Augenbewegungen mithalten. «Mit Augensteuerung können Sie normalerweise ungefähr sechs Wörter pro Minute sprechen. Das Sprechtempo eines Menschen ohne Einschränkungen liegt jedoch bei 100 bis 150 Wörtern pro Minute», so Kern.
Die Vision für die Zukunft ist, dass der Avatar in verschiedenen Sprachen kommunizieren und sogar simultan übersetzen kann. Derzeit werden diese digitalen Stellvertreter weltweit von etwa zehn Personen genutzt und trainiert.