Spolu s tím, jak tohle čtete, vaše neurony srší impulzy – a tuto mozkovou aktivitu teď už lze dekódovat, aby odhalila nevyřčená slova ve vaší hlavě. MLUVA se sebou samotným bývala v minulosti přísně soukromá. Tak tomu už ale není – výzkumníci totiž poprvé naše vnitřní monology odposlechli. Tento úspěch je krokem přibližujícím pomoc lidem, kteří nemohou fyzicky mluvit a komunikovat tak s vnějším světem.


„Když si čtete text v novinách či v knize, slyšíte ve své vlastní hlavně hlas,“ říká Brian Pasley z University of California Berkeley. „My tu mozkovou aktivitu spojenou s tím hlasem zkoušíme dekódovat, abychom vytvořili lékařskou protézu, která by umožnila mluvit i někomu, kdo je ochrnutý či znehybněný.“

Když slyšíte něčí mluvu, tak zvukové vlny aktivují senzorické neurony ve vašem vnitřním uchu. Tyto neurony tuto informaci předají do oblastí mozku, které se z těch zvuků vytěží různé aspekty informací a ty se interpretují jako slova.

V předchozích studiích od Pasleye a jeho kolegů zaznamenávali mozkovou aktivitu lidí poslouchajících řeč, kteří už měli do mozku implantované elektrody kvůli léčbě epilepsie. Tento tým zjistil, že určité neurony v mozkovém temporálním laloku se aktivovaly jen v reakci na určité aspekty zvuků, jako specifické frekvence. Např. jedna sada neuronů mohla reagovat pouze na zvukové vlny s frekvencí 1000 Herzů, zatímco jinou sadu zajímají jen ty o 2000 Herzích. Vyzbrojen touto znalostí tento tým sestavil algoritmus, který mohl dekódovat slyšená slova jen na základě samotné neurální aktivity. (PLoS Biology, doi.org/fzv269).

Tým se domníval, že ať už řeč slyšíme nebo si ji v duchu myslíme, tak by to mohlo v mozku podnítit některé stejné neurální vzory. Předpokládali, že algoritmus vyladěný na identifikaci hlasitě slyšené mluvy by mohl být schopen identifikovat slova, která slyší.

Aby tento nápad otestovali, zaznamenali mozkovou aktivitu jiných sedmi lidí podstupujících chirurgii kvůli epilepsii, když se dívali na obrazovku, na které se objevil text buď z Proslovu Johna F. Kennedyho při inauguraci nebo v Gettysburgu nebo dětské říkanky Humpty Dumpty.

Každého účastníka požádali, aby ten text přečetl hlasitě, přičetl si ho potichu jen v hlavě a pak, aby nedělal nic. Když ten text četli hlasitě, tak tým zpracoval zjištěné reakce neuronů na různé aspekty mluvy a vypracoval osobě na míru střižený dekodér k intepretaci této informace. Pak byl tento dekodér použit k vytvoření spektrogramu – vizuální reprezentace různých frekvencí zvukových vln v té době slyšených. Jelikož každá z frekvencí korelovala se specifickými zvuky v každém vysloveném slově, tak tohoto spektrogramu mohlo být použito k rekonstrukci toho, co bylo řečeno. Pak takovýto dekodér použili na mozkovou aktivitu, k níž docházelo, když účastníci tyto pasáže četli potichu pro sebe (viz diagram).

Ač se neurální aktivita mezi představovanou a opravdovou řečí lehce lišila, byl dekodér u několika dobrovolníků schopen rekonstruovat, na která slova mysleli, jen za pomoci samotné neurální aktivity (Frontiers in Neuroengineering, doi.org/whb).

Tento algoritmus není ještě perfektní, říká Stephanie Martin, která na této studii s Pasleyem pracovala. „Získali jsme sice už významné výsledky, ale ještě nejsou dost dobré, abychom na to postavili zařízení.“

Kdyby tohoto dekodéru bylo použito v praxi u lidí, kteří nejsou schopni mluvit, tak by se musel zacvičovat na tom, co slyšeli, a nestačila by jejich vlastní samomluva. „Nemyslíme si, že by byl velký problém ten dekodér nacvičit pomocí slyšené řeči, protože obojí sdílí vzájemně se překrývající oblasti mozku,“ říká Martin.

Tým teď provádí jemné doladěné svého algoritmu hledáním například odlišností neurální aktivity spojené s rychlostí mluvení a s různými výslovnostmi stejných slov. „Laťka je hodně vysoko,“ říká Pasley. „Tohle jsou jen předběžná data a my pořád pracujeme na tom, jak to zlepšit.“

Tým také vrhl své úsilí na vyčtení toho, jaké písničky osoba poslouchá, když dobrovolníkům přehrávají spoustu Pink Floydů a pak pracují na zjištění, které neurony reagují na které aspekty této hudby. „Zvuk je zvuk,“ říká Pasley. „To všechno nám pomáhá pochopit různé aspekty toho, jak jej mozek zpracovává.“

„Až nakonec skryté mluvě porozumíme dostatečně dobře, budeme schopni vytvořit lékařské protézy, které by mohly pomoci někomu, kdo je ochrnutý nebo znehybněný a nemůže mluvit,“ říká.

I několik dalších výzkumníků zkoumá způsoby, jak číst lidské myšlenky. Někteří už mohou říci, na jaké obrázky se osoba dívá, jiní se už dopracovali k tomu, jaké neurální aktivity reprezentují určité představy v mozku, a jeden tým dokonce vytvořil hrubou reprodukci video-klipu, na který se někdo díval, jen podle analýzy mozkové aktivity těchto lidí. Takže, bude tedy možné to všechno dát dohromady k vytvoření multi-senzorického zařízení ke čtení mysli?

Teoreticky ano, říká Martin, bude to ale nesmírně komplikované. Říká, že byste pro každou věc, kterou zkoušíte vyčíst, potřebovali ohromné množství dat. „Bylo by opravdu zajímavé se do toho dívat. To by nám umožnilo vyčíst, co lidé dělají, nebo na co myslí,“ říká. „Zatím ale potřebujeme, aby nám dobře fungovaly jednotlivé dekodéry, než budeme schopni zkombinovat různé smysly.“

[quote align="center" color="#999999"]

  • Vážení a milí čtenáři, děkujeme, že podporujete činnost nezávislého magazínu Vědomí
  • [/quote]

    Zdroj: newscientist.com, reformy.cz