Aus dem Gehirn direkt aufs Display – wie weit Sprachprothesen sind | #heiseshow
Podcast
Podcaster
Beschreibung
vor 3 Jahren
Wenn es um Projekte geht, mit denen Gedanken direkt in eine Sprach-
oder Textausgabe umgewandelt werden sollen, ist die Zeit der
großspurigen Ankündigungen offenbar vorbei. Still und leise hat
etwa Facebook ein ambitioniertes Vorhaben begraben. Das heißt aber
nicht, dass am "Brain-Computer Interface" (BCI) nicht mehr
geforscht wird, ganz im Gegenteil. Mit mehr oder weniger invasiven
Methoden können Forscher und Forscherinnen Dutzende Wörter oder
Buchstaben direkt im Kopf erkennen und unterscheiden. Nicht nur
Menschen, die nicht – mehr – sprechen können, können sich darüber
bereits begrenzt mitteilen. Vorstellbar wäre auch, dass man mit
solch einer Technik künftig in der Öffentlichkeit vertraulich
kommunizieren kann. Wir lassen uns die Konzepte erklären. Was genau
ist eine "Brain-Computer Interface" und eine Neurosprachprothese?
Welche Ansätze gibt es, um aus Hirnströmen Texte oder akustische
Signale zu generieren? Was für Eingriffe sind dafür bei den
Probanden nötig? Auf welche Schwierigkeiten stößt man bei der
Umsetzung? Wie weit ist die Technik, was sind die Erwartungen?
Welche Vorteile hätte eine nutzbare Technik – könnte man wirklich
schneller schreiben? Und was hat es mit Facebooks Projekt auf sich
– was ist aus der anfänglichen Euphorie geworden? Darüber und über
viele weitere Fragen auch aus dem Publikum sprechen Kristina Beer
(@bee_k_bee) und Martin Holland (@fingolas) von heise online live
mit c't-Redakteur Arne Grävemeyer. Alternativ wird der Stream auch
auf Twitch.tv/heiseonline gesendet. === Anzeige / Sponsorenhinweis
=== Thoughtworks ist eine führende globale Technologieberatung, die
Strategie, Design und Softwareentwicklung ganzheitlich verbindet.
So unterstützt Thoughtworks Organisationen weltweit auf ihrem Weg,
sich zu einem modernen digitalen Unternehmen zu entwickeln. Infos
unter thght.works === Anzeige / Sponsorenhinweis Ende ===
oder Textausgabe umgewandelt werden sollen, ist die Zeit der
großspurigen Ankündigungen offenbar vorbei. Still und leise hat
etwa Facebook ein ambitioniertes Vorhaben begraben. Das heißt aber
nicht, dass am "Brain-Computer Interface" (BCI) nicht mehr
geforscht wird, ganz im Gegenteil. Mit mehr oder weniger invasiven
Methoden können Forscher und Forscherinnen Dutzende Wörter oder
Buchstaben direkt im Kopf erkennen und unterscheiden. Nicht nur
Menschen, die nicht – mehr – sprechen können, können sich darüber
bereits begrenzt mitteilen. Vorstellbar wäre auch, dass man mit
solch einer Technik künftig in der Öffentlichkeit vertraulich
kommunizieren kann. Wir lassen uns die Konzepte erklären. Was genau
ist eine "Brain-Computer Interface" und eine Neurosprachprothese?
Welche Ansätze gibt es, um aus Hirnströmen Texte oder akustische
Signale zu generieren? Was für Eingriffe sind dafür bei den
Probanden nötig? Auf welche Schwierigkeiten stößt man bei der
Umsetzung? Wie weit ist die Technik, was sind die Erwartungen?
Welche Vorteile hätte eine nutzbare Technik – könnte man wirklich
schneller schreiben? Und was hat es mit Facebooks Projekt auf sich
– was ist aus der anfänglichen Euphorie geworden? Darüber und über
viele weitere Fragen auch aus dem Publikum sprechen Kristina Beer
(@bee_k_bee) und Martin Holland (@fingolas) von heise online live
mit c't-Redakteur Arne Grävemeyer. Alternativ wird der Stream auch
auf Twitch.tv/heiseonline gesendet. === Anzeige / Sponsorenhinweis
=== Thoughtworks ist eine führende globale Technologieberatung, die
Strategie, Design und Softwareentwicklung ganzheitlich verbindet.
So unterstützt Thoughtworks Organisationen weltweit auf ihrem Weg,
sich zu einem modernen digitalen Unternehmen zu entwickeln. Infos
unter thght.works === Anzeige / Sponsorenhinweis Ende ===
Weitere Episoden
In Podcasts werben
Kommentare (0)