Uncovering the functional anatomy of human insula during speech

Reviewer #1:

Mam jedno poważne zastrzeżenie do tego artykułu w obecnej formie.

Po pierwsze, skale czasowe, które są omawiane są wyłącznie długie – 200 ms lub więcej. Inne badania iEEG (np. Brugge et al., 2003, i inne z grupy Matta Howarda w Iowa) pokazują wczesną wywołaną aktywność słuchową, w ciągu kilkudziesięciu ms od stymulacji, oprócz znacznie późniejszych odpowiedzi populacji omawianych tutaj (i widocznych na nieinwazyjnym EEG całego mózgu). Amplituda jest znacznie niższa niż odpowiedź populacyjna, która występuje później, ale wcześniejsza aktywność jest zgodna z synaptycznymi opóźnieniami przewodzenia. Problem polega na tym, że te wcześniejsze, mniejsze sygnały mogą nieść wiele informacji i być funkcjonalnie ważne. Innymi słowy, może być aktywność planowania przy niższej amplitudzie w korze wyspy, wcześnie, ale to jest pomijane.

Przynajmniej ta kwestia pierwszej odpowiedzi wywołanej (wcześnie) vs aktywność populacji (późno) musi być przedyskutowana, myślę.

Wykonaliśmy nową analizę odpowiedzi wywołanej, na żądanie recenzenta, patrząc na nasze ROIs. Nie znajdujemy dowodów na znaczące potencjały przedartykulacyjne w żadnym z regionów wyspowych. Dodaliśmy tekst w metodach istotnych dla analizy ERP i włączyliśmy nowy rysunek 2-figure supplement 3 do manuskryptu

„Aby wygenerować potencjały związane ze zdarzeniem (ERP; rysunek 2-figure supplement 3), surowe dane zostały przefiltrowane pasmowo (0.1 – 50 Hz). Próby z wyrównaną mową zostały uśrednione razem, a wynikowy kształt fali został wygładzony (Savitzky-Golay FIR, trzeciego rzędu, długość ramki 151 ms). Okresy znaczącej aktywności określano w sposób opisany wcześniej. Wszystkie elektrody zostały uśrednione w obrębie każdego badanego, w obrębie ROI, a następnie użyto średnich międzyobiektowych.”

Dodatkowo, aby poprawić prezentację naszych danych z rozdzielczością czasową, wygenerowaliśmy nową reprezentację 4D aktywacji korowej za pomocą MEMA, używając mniejszych okien czasowych (okna 150 ms, przesunięcie środka o 10 ms) (Wideo 1), która pokazuje progresję aktywności przedartykulacyjnej z IFG do FO, ale nie skutkuje aktywacją AI.

Reviewer #2:

Podstawowe poprawki:

1) Większość głównych twierdzeń zawartych w artykule jest wysoce spekulatywna. Aby być jasnym, dane same w sobie wydają się solidne, i w przeważającej części, myślę, że jest to możliwe, aby nowe roszczenia z analiz, które zostały wykonane. Problem polega na tym, że istnieją ogromne skoki logiczne wymagane, aby dostać się od niektórych danych, np.:

„aktywność w tylnej insuli była wyłącznie post-speech onset”…. „Nie było różnic w amplitudzie aktywacji z różnymi poziomami złożoności artykulacji, porównując proste monosylabiczne słowa z zadania nazywania przeciwko złożonemu czytaniu i wielosylabowym odpowiedziom nazywania”

do interpretacji, np.np.:

„implikując rolę nie jako region planowania, ale prawdopodobnie jako region monitorowania”

Twierdzenie o tylnej insuli jako regionie monitorowania (lub jest to słuchowa i somatosensoryczna integracja?) nie ma wyraźnego wsparcia w danych lub analizach. Opiera się na fakcie, że różnice w odpowiedzi od linii bazowej nie zaczynają się aż do akustycznego początku mowy, i że złożoność artykulacyjna (różna w różnych zadaniach) nie wpływa na amplitudę odpowiedzi. Nie zaprzeczam, że te interpretacje mogą być dokładne, ale nie widzę żadnych analiz, które wyraźnie testują je w sposób falsyfikowalny.

Nasze twierdzenia opierają się na rozsądnym rozszerzeniu wyników, które znaleźliśmy – jednak przyznajemy punkt recenzentom, ponieważ insula może mieć inne funkcje poza tymi ocenianymi przez eksperymentalne paradygmaty przedstawione tutaj. W związku z tym wyeliminowaliśmy wszelkie odniesienia do roli tylnej półkuli w monitorowaniu w streszczeniu i w sekcji Wyniki. W dyskusji podsumowujemy istotne ustalenia i dodajemy ten tekst, tak aby przyszłe wysiłki mogły być informowane o naszej perspektywie.

„Podsumowując, tylna insula (i) nie wykazuje aktywności przedartykulacyjnej, (ii) nie wykazuje wrażliwości na złożoność (Baldo i in., 2011), (iii) jest aktywowana przez dźwięki wytwarzane z zewnątrz i (iv) przez ruchy ust niebędące mową. W sumie wyniki te sugerują, że jest to region monitorowania sensorycznego – co jest zgodne z rolą insuli w integracji słuchowo-somatosensorycznej (Rodgers i in., 2008), gdzie zarówno słuchowa jak i somatosensoryczna aktywność w insuli gryzoni jest maksymalna podczas zbieżnej prezentacji, porównywalna do tego, co widzimy podczas ludzkiej mowy generowanej przez samego siebie.”

Jest jeszcze jeden ważny przykład: twierdzenie, że jakakolwiek ponadprogowa aktywacja w przedniej półkuli faktycznie odzwierciedla aktywność neuronalną w przednim płacie mózgu, opiera się całkowicie na jakościowej analizie elektrod w obu regionach (Rysunek 5, podrozdział „Porównanie przedniej półkuli mózgu i przedniego płata mózgu”). Wydaje się, że autorzy chcą twierdzić, że niska amplituda i bliskość FO oznacza, że te odpowiedzi rzeczywiście pochodzą z FO (podrozdział „Comparing Anterior Insula and Frontal Operculum”). Jednak analiza na Rysunku 5 wydaje się sugerować, że aktywność pomiędzy tymi regionami jest zupełnie inna. Jednym ze sposobów oceny tej hipotezy jest po prostu (krzyżowa) korelacja aktywności między regionami (czy można przewidzieć FO z AI i odwrotnie?), jednak tutaj nie przeprowadzono podobnej analizy.

Zmotywowani uwagami recenzentów, przeprowadziliśmy analizę korelacji krzyżowej danych śladów napięciowych ograniczonych pasmem gamma z par elektrod w tych sąsiadujących regionach (podrozdział „Porównanie przedniej półkuli mózgu i przedniej części ciała”, podrozdział „Aktywność tylnej półkuli mózgu vs. aktywność górnej części zakrętu skroniowego”). Zgodnie z oczekiwaniami, znaleźliśmy znaczącą korelację pomiędzy sygnałami w AI i FO (r = 0.11, p = 0.008). Z kolei, zgodnie z oczekiwaniami, w analizie PI-STG nie stwierdzono istotnej korelacji (r = 0,01, p = 0,74). Ten tekst został dodany do sekcji Wyniki, a Rysunek 5 i Rysunek 6 zostały zmodyfikowane jak poniżej.

„Ze względu na skośne trajektorie używane do próbkowania wyspy, większość pacjentów (n=13) z elektrodami w przedniej części wyspy miała również elektrodę na tej samej sondzie (separacja 5,7 ± 2,2 mm), która była zlokalizowana w przedniej części mózgu (Rysunek 5C). Ślady napięciowe o ograniczonym paśmie (70-150Hz) na tych elektrodach były znacząco skorelowane pomiędzy parami elektrod (r = 0,11 ± 0,03, średnia ± SE; znak rang Wilcoxona, p = 0,008). Również przebiegi czasowe BGA na poziomie populacji były wysoce porównywalne pomiędzy tymi dwoma regionami (Rysunek 5D).

W przypadku pacjentów z elektrodami zarówno w PI jak i STG (n=8) skorelowaliśmy aktywność w najbliższej parze elektrod (separacja 11,9 ± 2,9 mm) (Rysunek 6B). W przeciwieństwie do korelacji AI-FO, ograniczone pasmowo ślady napięciowe w tych parach elektrod nie były istotnie skorelowane (r = 0,01 ± 0,03, średnia ± SE; znak rang Wilcoxona, p = 0,74).”

Ogółem, przeprowadzone analizy dostarczają względnie jasnych wyników dotyczących lokalizacji i czasu aktywności w (przynajmniej tylnej) części półkuli podczas różnych zadań związanych z mową, motoryką i czuciem. Ale moim zdaniem, interpretacje są rażąco przesadzone. Ogólnie rzecz biorąc, praca ta wydaje się być serią opisów aktywności, z których wiele jest nowatorskich. Ale nie jest dla mnie jasne, jak to zmienia nasze rozumienie albo produkcji mowy lub sieci percepcji mowy w mózgu, a zwłaszcza w kierunku zadeklarowanego celu papieru, który jest zrozumienie roli insuli w tych sieciach.

To badanie było początkowo motywowane przez przeważającą literaturę, która kojarzy produkcję mowy i insula, pochodzące z wyników lesional (Dronkers, 1996; Marien et al., 2001; Ogar et al., 2006; Itabashi et al., 2016) oraz badań z zakresu obrazowania funkcjonalnego (Mutschler et al., 2009; Adank, 2012; McGettigan et al., 2013; Ardila et al., 2014; Oh et al., 2014). Praca Dronkersa z 1996 roku łącząca przednią półkulę mózgu z zaburzeniami mowy ma już ponad 1300 cytowań, a przednia półkula mózgu została włączona do kilku głośnych modeli mowy i produkcji języka (Hickok i Poeppel, 2007 (cytowana 3474 razy) oraz Dehaene, 2009). Co więcej, rola insuli jako węzła przedartykulacyjnego została użyta jako wyjaśnienie apraksji mowy (Ogar i in., 2006; Baldo i in., 2011); W przeciwieństwie do przewidywań tych modeli (wszystkie pochodzą z badań, które używają technik bez rozdzielczości czasowej, aby to potwierdzić), nie znajdujemy znaczącej aktywności przedartykulacyjnej, która pochodzi z półkuli; bardziej szczegółowo, pokazujemy, że wiele badań fMRI, które zostały zinterpretowane, aby pokazać, że przednia półkula generuje aktywność podczas produkcji mowy, błędnie przypisały aktywność z przedniego płata do przedniej półkuli.

2) Ogólnie rzecz biorąc, konkretne hipotezy są trudne do naśladowania. Na przykład, hipoteza przedstawiona we Wstępie wydaje się sugerować, że związek FO/AI pokazany w dalszej części pracy jest hipotezą a priori. Jednak sposób, w jaki napisana jest sekcja Wyniki, nie jest jasny, czy autorzy rzeczywiście podejrzewali, że tak jest, czy też zaobserwowali aktywność AI o niskiej amplitudzie, a następnie próbowali sprawdzić, czy rzeczywiście odzwierciedla ona FO.

Myśleliśmy, że nasze stwierdzenia w sekcji, którą podnosi recenzent, są jasne. We wstępie zamieściliśmy następujące elementy, aby wyjaśnić naszą początkową hipotezę.

„Tutaj wykonaliśmy bezpośrednie, inwazyjne nagrania aktywności korowej z wielu miejsc w poprzek insuli w obu półkulach, u pacjentów poddawanych lokalizacji napadów w przypadku nieprzezwyciężonej padaczki, testując teorie wygenerowane z istniejącej literatury, a mianowicie, że insula działa jako region przygotowawczy przedartykulacyjny.”

We Wstępie odnosimy się do IFG jako konfundującego funkcjonalne obrazowanie i badania lesyjne SPG. Literatura fMRI pokazuje związane z mową skupiska aktywacji, które są przypisywane do przedniej półkuli, ale wierzymy, że pochodzą z FO. Badania lezji (Hillis i in., 2004) wskazują na IFG jako prawdopodobną alternatywę dla insuli jako przyczynę apraksji mowy. Dlatego też obawialiśmy się, że może on zanieczyszczać sygnały rejestrowane w insuli za pomocą elektrod sEEG. Na szczęście sygnał pasma γ jest wysoce ogniskowy i szybko zanika wraz z odległością. Taka rozdzielczość przestrzenna pozwoliła nam na rozróżnienie specyficznych ról AI i FO w naszym badaniu (Rycina 2, Rycina 5; Wideo 1).

Powiązanym przykładem jest to, że ROIs krótko wspomniane w podrozdziale „Comparing Anterior Insula and Frontal Operculum” (i wyszczególnione bardziej szczegółowo w sekcji Materiały i metody) nie stwierdzają, że istniał szczególny powód (prawdopodobnie inny niż krótko wspomniany zestaw wyników fMRI), aby podzielić insulę na przednią/przednią. Tak więc, jestem zdezorientowany zarówno co do hipotezy, jak i tego, jak odnosi się ona do poprzedniej literatury dotyczącej fMRI i zmian chorobowych, wspomnianej we Wstępie.

Wyspa jest zdefiniowana przez anatomiczne granice pomiędzy krótkimi (przednimi) i długimi (tylnymi) zakrętami (Naidich et al., 2004). Potwierdza to również istniejąca literatura, która również odwołuje się do odrębnych ról funkcjonalnych – w badaniach obrazowania funkcjonalnego przypuszcza się, że przednia część insuli jest głównym miejscem aktywności związanej z produkcją mowy (Mutschler i in., 2009; Adank, 2012; McGettigan i in., 2013; Ardila i in., 2014; Oh i in., 2014). Tylna insula jest jednak silniej związana z przetwarzaniem somatosensorycznym i nocyceptywnym (Stephani i in., 2011; Garcia-Larrea, 2012).

„Aby porównać czas aktywacji innych regionów funkcjonalnych z insulą, użyliśmy ROI opartych na znanej anatomiczno-funkcjonalnej parcelacji insuli, oddzielającej krótkie gyri (anterior) i długie gyri (posterior) (Naidich i in., 2004), i ukierunkowane na sąsiednie regiony, które są dobrze udokumentowane jako zaangażowane w produkcję mowy, jak szczegółowo opisano w metodach: lewy górny zakręt skroniowy (STG; pierwotna i wtórna kora słuchowa), obustronna bruzda środkowa (CS) i lewy dolny zakręt czołowy (IFG) (rysunek 1C).”

Inny przykład: czwarty akapit podrozdziału „Porównanie przedniej półkuli mózgu i przedniej części mózgu”. Akapit zaczyna się od stwierdzenia, że celem jest dezambiguacja czegoś (co nie jest jasne – czy jest to STG vs insula, czy słuchowe vs sensomotoryczne?). Na końcu paragrafu pojawia się twierdzenie, że STG i tylna półkula są funkcjonalnie rozdzielne. Względna amplituda aktywacji pomiędzy mówieniem i słuchaniem w obu regionach nie rozróżnia roli tych regionów, pokazuje jedynie, że jeden z nich ma wyższą aktywność niż drugi w każdym zadaniu (nie zwracając uwagi na obszerną literaturę na temat tłumionych odpowiedzi podczas samoreprodukcji mowy w obszarach takich jak STG). Analiza na Rysunku 6 kwantyfikuje to w nieco inny sposób, choć ostatecznie jest to ta sama analiza i dlatego nie sądzę, by wzmacniała to twierdzenie.

Naszym celem tej analizy było pokazanie funkcjonalnej dysocjacji pomiędzy PI i STG. Podczas gdy, jak już wcześniej wykazano, STG jest tłumione podczas mowy generowanej przez siebie, tylna półkula nie jest aktywowana i w rzeczywistości wykazuje preferencyjną aktywację. Nasze rozdzielenie reprezentacji pomiędzy Rysunkiem 2 i Rysunkiem 6 ma na celu pokazanie, że efekt ten może być widoczny na poziomie pojedynczej elektrody w każdym ROI i nie jest efektem łączenia odpowiedzi w całym regionie.

Przeredagowaliśmy cały podrozdział „Chronologia Aktywacji Wyspowej” w celu poprawy przejrzystości. Zdajemy sobie sprawę z indukowanej mową supresji kory słuchowej i obecnie włączyliśmy odniesienia do tej literatury na temat supresji samodzielnie generowanych dźwięków w naszej sekcji Dyskusji.

„Aby porównać czas aktywacji innych regionów funkcjonalnych z wyspą, użyliśmy ROI opartych na znanej anatomiczno-funkcjonalnej parcelacji wyspy, oddzielając krótkie gyrie (przednie) i długie gyrie (tylne) (Naidich et al., 2004), i ukierunkowane na przyległe regiony, które są dobrze poznane jako zaangażowane w produkcję mowy, jak szczegółowo opisano w metodach: lewy górny zakręt skroniowy (STG – pierwotna i wtórna kora słuchowa), obustronna bruzda środkowa (CS) i lewy dolny zakręt czołowy (IFG) (Rysunek 1C). Zarówno podczas czytania, jak i nazywania, aktywność w tych ROI była zgodna z oczekiwaniami (Ryc. 2). Aktywacja IFG rozpoczęła się ~750 ms przed rozpoczęciem mowy, przed aktywacją CS. Aktywność CS była maksymalna na początku mowy, a krótko po jej rozpoczęciu aktywowała się STG.

Pozytywna tylna półkula mózgu była aktywna wyłącznie po rozpoczęciu mowy, co sugeruje, że nie odgrywa ona roli w planowaniu mowy. Nie zaobserwowano różnic w amplitudzie aktywacji przy różnym poziomie złożoności artykulacji – proste jednosylabowe nazwy vs złożone czytane słowa (znak rang Wilcoxona, 200-600ms; p=0,083) oraz wielosylabowe odpowiedzi na nazwy (p=0,898) (Rycina 2-figura suplement 1). Jedyną zaobserwowaną różnicą był efekt czasu trwania, z dłuższym czasem artykulacji, a tym samym dłuższym czasem trwania aktywacji dla słów wielosylabowych (600-1000ms; p=0,024). W tylnej półkuli mózgu czas odpowiedzi był bardzo zbliżony do tego w STG, z podobnym czasem początku, przesunięcia i szczytu aktywności. Zgodnie z oczekiwaniami, wynikającymi z innych badań kory słuchowej, STG reagowało silniej na mowę zewnętrzną niż na mowę generowaną przez siebie (p=0,002) (rysunek 2-figure supplement 1). Przednia półkula mózgu wykazywała bardzo słabą, choć znaczącą aktywację w obu zadaniach artykulacji mowy, rozpoczynając się krótko po IFG. Ta odpowiedź o niskiej amplitudzie stała się znacząca około 150 ms przed początkiem mowy i pozostała aktywna przez cały czas jej trwania, równolegle z tylną półkulą i STG. Ta mała, ale wiarygodna odpowiedź może reprezentować lokalne przetwarzanie o niskiej amplitudzie, ale może również reprezentować aktywność z aktywnego sąsiedniego regionu, takiego jak przedni płat mózgu, który pokrywa się z insulą.”

Sekcja dyskusyjna

„Ten profil aktywacji w PI jest przeciwieństwem STG. Powszechnie wiadomo, że kora słuchowa jest tłumiona podczas mowy generowanej przez siebie (Creutzfeldt i in., 1989; Paus i in., 1996; Numminen i in., 1999; Chan i in., 2014) i generowanych przez siebie dźwięków (Rummell i in., 2016; Singla i in., 2017), prawdopodobnie w wyniku interakcji pomiędzy słuchowymi i niesłuchowymi sensorycznymi sprzężeniami zwrotnymi w korze słuchowej. Podczas gdy STG jest bardziej aktywna podczas mowy produkowanej zewnętrznie niż mowy generowanej samodzielnie, aktywność tylnej półkuli mózgu nie jest tłumiona w odpowiedzi na artykulację, a raczej jest bardziej aktywna podczas mowy generowanej samodzielnie.”

Podobnie, interpretacja relacji FO/AI w Dyskusji również przedstawia twierdzenia, że obecny manuskrypt wyjaśnia dane dotyczące zmian chorobowych, ale bez większej jasności co do tego, jak wyklucza rzekome alternatywy (podrozdział „Posterior Insula”; co sprawia, że alternatywy są „mniej prawdopodobne”?).

To nie jest dokładnie to, co powiedzieliśmy: Analizy lezjologiczne w przypadkach apraksji mowy, przypisują problem do bycia (i) zaburzeniem planowania przedartykulacyjnego w insuli, (ii) zaburzeniem planowania przedartykulacyjnego w IFG lub (iii) upośledzeniem integracji audio-motorycznej. Nasze badania dostarczają pierwszych wyraźnych dowodów na wykluczenie pierwszej możliwości i zamiast tego powołują się na zaburzenia IFG lub FO. Dokonaliśmy modyfikacji w odpowiednim akapicie, aby zapobiec błędnym interpretacjom.

„Analiza lezji w przypadkach apraksji mowy, przypisuje główną przyczynę albo (i) zaburzeniu planowania przedartykulacyjnego w górnym lewym tylnym krótkim zakręcie, (zwanym również przedśrodkowym zakrętem wyspy), (ii) zaburzeniu planowania przedartykulacyjnego w IFG lub (iii) upośledzeniu integracji audio-motorycznej. Nasze badanie dostarcza dowodów wykluczających pierwszą możliwość. Biorąc pod uwagę brak aktywności przedartykulacyjnej wykazany w tym badaniu oraz brak związku aktywacji ze złożonością artykulacji, jest mało prawdopodobne, że uszkodzenia tego regionu są kluczowe dla AOS. (Kent, 2000; Baldo i in., 2011). Podczas gdy nasze wyniki sugerują integrację audio-motoryczną w ALG, nie mamy bezpośrednich dowodów na tę funkcję (Kent i Rosenbek, 1983; Rogers i in., 1996; Maas i in., 2015). Tak więc, nasze ustalenia najlepiej wspierają AOS reprezentujące zaburzenia w IFG (Hillis i in., 2004; Fedorenko i in., 2015).”

3) Jest dla mnie niejasne, dlaczego autorzy kładą tak duży nacisk na relację FO/AI, podczas gdy nie testują tej samej hipotezy dla STG/PI. O ile mi wiadomo, regiony te mają podobnie przybliżone lokalizacje i w zależności od trajektorii elektrod głębokościowych, teoretycznie mogłyby odbierać te same sygnały. Również w tym przypadku różnice w amplitudzie odpowiedzi pomiędzy zadaniami mówienia i słuchania nie pozwoliłyby na prawdziwą dezambitację tych regionów pod względem wspólnych sygnałów lub właściwości funkcjonalnych. Wierzę , że dodatkowe podejścia są konieczne dla roszczenia FO/AI (i być może również testowanie roszczenia STG/PI), włączając modelowanie przestrzennego rozprzestrzeniania się BGA i / lub pojedynczego impulsu stymulacji by poszukać funkcjonalnie połączonych elektrod.

Byliśmy skupieni na AI i FO biorąc pod uwagę główną rolę AI została przypisana w poprzednich wyjaśnieniach apraksji mowy. Obecnie przeprowadziliśmy i włączyliśmy analizę korelacji krzyżowej danych śladów napięciowych z par elektrod w tych sąsiadujących regionach (podrozdział „Porównanie przedniej półkuli mózgu i przedniej części ciała”, podrozdział „Aktywność tylnej półkuli mózgu vs. aktywność górnego zakrętu skroniowego”). W porównaniu AI-FO istnieje znacząca korelacja między sygnałami, która nie jest widoczna w porównaniu PI-STG.

„Ze względu na skośne trajektorie używane do próbkowania wyspy, większość pacjentów (n=13) z elektrodami w przedniej części wyspy posiadała pobliską elektrodę na tej samej sondzie (separacja 5,7 ± 2,2 mm), która była zlokalizowana w przedniej części pola operacyjnego (Rysunek 5C). Ślady napięciowe o ograniczonym paśmie (70-150Hz) tych elektrod były znacząco skorelowane pomiędzy parami elektrod (r = 0,11 ± 0,03, średnia ± SE; znak rang Wilcoxona, p = 0,008). Również przebiegi czasowe BGA na poziomie populacji były wysoce porównywalne pomiędzy tymi dwoma regionami (Rysunek 5D).”

„U pacjentów z elektrodami zarówno w PI jak i STG wybraliśmy najbliższą parę elektrod (separacja 11,9 ± 2,9 mm) (Rysunek 6B). Ślady napięcia ograniczonego pasmem w tych parach elektrod nie były znacząco skorelowane między parami elektrod (r = 0,01 ± 0,03, średnia ± SE; znak rang Wilcoxona, p = 0,74).”

4) Dlaczego Rysunek 4 i Rysunek 6 pokazują dane tylko z lewej półkuli? Rysunek 1 i Rysunek 3 pokazują wyraźne obustronne pokrycie, a w niektórych momentach autorzy twierdzą, że efekty są rzeczywiście dwustronne. Jednakże, akapit podsumowujący na końcu sekcji Dyskusji nagle twierdzi, że te efekty są lewostronne.

Nie włączyliśmy danych z prawej półkuli, ponieważ nie mieliśmy wystarczającego szerokiego pokrycia prawej półkuli, aby przeprowadzić znaczącą analizę MEMA – Konkretnie, dla analizy MEMA minimalne pokrycie pacjenta wynoszące 3 jest ogólnie wymagane w każdym danym regionie. W odpowiedzi na prośbę recenzenta, przedstawiliśmy również dane z prawej półkuli na rycinie 6, a niejednoznaczność akapitu podsumowującego została skorygowana.

„Podsumowując, stwierdzamy, że wyspa nie pełni roli przygotowawczej przedartykulacyjnej i że obustronne tylne kory wyspowe mogą funkcjonować jako słuchowe i somatosensoryczne regiony integracyjne lub monitorujące.”

Reviewer #3:

1) Ogólnie rzecz biorąc, użycie „superior temporal gyrus” w odniesieniu do całego rdzenia słuchowego, pasa i obszarów parabelt jest w porządku, ale znalazłem to rozpraszające na początku, ponieważ różne gyri w obrębie superior temporal gyrus mogą mieć zupełnie inne role funkcjonalne. Na przykład, duża część aktywności zarejestrowanej w ROI STG wydaje się być w poprzecznym zakręcie skroniowym (zakręt Heschla), który mógłby być wydzielony jako osobny obszar. Nie sugeruję, że autorzy muszą to robić, raczej dobrze byłoby powiedzieć z góry (np. w sekcji Wyniki, a w każdym razie przed sekcją Metody), że ten ROI był dużym regionem obejmującym pierwotną, wtórną i trzeciorzędową korę słuchową.

Dodaliśmy teraz to rozróżnienie do naszej sekcji Wyniki:

„left superior temporal gyrus (STG; pierwszo- i drugorzędowa kora słuchowa)”

2) Autorzy zauważają, że ~75% odpowiedzi w zadaniu nazywania było poprawnie wyartykułowanych i wykorzystywało najczęstszy wybór słów. Jeśli liczba prób pozwala, autorzy mogliby rozważyć porównanie podzbioru ~25% prób błędów (nieprawidłowe artykulacje) do poprawnych prób, aby określić, czy tylna półkula pokazuje różnicę w wielkości odpowiedzi lub czasie, gdy wypowiedź jest nieprawidłowa. Jeśli tylna półkula rzeczywiście jest krytyczna dla samokontroli i jest zaangażowana w dyzartrię, mogłoby to zapewnić pewien kluczowy wgląd w to, jak ten proces zachodzi.

Jak stwierdzamy w sekcji Materiały i metody, w próbach nazywania pacjenci nie byli ograniczeni w swoich odpowiedziach. Aby upewnić się, że konkretne artykulacje były jedno- lub wielosylabowe, analizowaliśmy tylko próby z odpowiedziami, które należały do oczekiwanych słów dla danego bodźca. >95% odpowiedzi było poprawnie wyartykułowanych, ale ~25% z nich dokonało wyboru słowa, które nie było najczęściej kojarzonym słowem dla prezentowanego bodźca wizualnego (np. ptak zamiast pelikan), tak więc, dla rozsądnego grupowania danych i analiz na poziomie populacji, wykluczyliśmy te próby z wariacjami w odpowiedziach.

3) Na Rysunku 2, duża skala aktywności w obszarach motorycznych i górnym zakręcie skroniowym oznacza, że skala kolorów jest rozdmuchana. Sugerowałbym przeskalowanie każdego rzędu paneli od -max do +max w obrębie ROI, ponieważ główne porównanie dokonywane za ich pomocą dotyczy zadań, podczas gdy porównanie pomiędzy obszarami może być dokonane za pomocą paneli A-D.

STG i CS zostały przeskalowane dla lepszej wizualizacji.

4) W odniesieniu do punktu (1), na rycinie 3, autorzy pokazują różnicę w aktywacji dla czytania i słuchania, aby wyizolować wkład z zewnętrznie generowanej vs. samodzielnie generowanej mowy. Trudno jest odróżnić STG, zakręt Heschla i regiony insuli. Sugerowałbym, aby autorzy narysowali ROI nad regionami, które klasyfikują jako każdy z obszarów anatomicznych.

Na rycinie 3 pokazana jest wyłącznie wyspa, a STG i zakręt Heschla są ukryte, ponieważ w tej reprezentacji zwykle przesłaniałyby one wyspę.

5) Podczas zadania słuchowego pacjenci słyszą słowa, które przypuszczalnie nie są takie same jak słowa, które generują w zadaniach czytania i nazywania. W jakim stopniu te akustyczne różnice mogą wpływać na wyniki? Czy autorzy spodziewają się, że odpowiedzi podczas odtwarzania powinny wykazywać ten sam rezultat, co w zadaniu słuchowym? Analiza właściwości akustycznych dźwięków czytania/nazywania vs. słuchania mogłaby być tutaj pomocna.

W ramach obu zadań czytania i słuchania mamy zróżnicowany fonologicznie zakres bodźców. Czytanie składało się z 60 unikalnych słów, a słuchanie zawierało 72 zdania z różną strukturą zdania i początkowymi fonemami słów. Mogą istnieć różnice w tylnej aktywności wyspowej napędzanej efektami fonologicznymi, ale nie umniejsza to naszych głównych ustaleń i jest poza zakresem tego badania.

6) Chociaż mniej uczestników ukończyło zadanie praksji, pomocne byłoby zobaczenie tego zadania jako podobnego wykresu do Rysunku 2, na dodatkowym rysunku. Obecnie zadanie prakseologiczne jest pokazane tylko na rycinie 3B dla dwóch uśrednionych punktów czasowych, więc trudno jest wiedzieć, czy przebieg czasowy aktywności jest podobny do innych zadań.

W przeciwieństwie do życzeń recenzenta, przeprowadziliśmy analizę podgrupy, używając tylko tych pacjentów, którzy wykonali zadanie prakseologiczne (n = 8). Wyniki te przedstawiamy na rycinie 2-figure supplement 2.

„Ponadto, w zadaniu praksji zaobserwowaliśmy znaczącą aktywację w tylnej insuli, gdzie nie zaobserwowano jej w STG (rycina 2-figure supplement 2).”

https://doi.org/10.7554/eLife.53086.sa2

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *