Mikroelektrody z nanorurek węglowych

Pomiary synaptycznej aktywności neuronów są kluczowe dla zrozumienia mechanizmów kryjących się za różnymi funkcjami mózgu. Pod względem technicznym wykrycie i wyznaczenie potencjałów synaptycznych (rzędu miliwoltów) jest sprawą niebanalną, ponieważ wiąże się z zastosowaniem tzw. rejestracji wewnątrzkomórkowej (intracellular recording). Naukowcom z Duke University (USA) udało się w czerwcu tego (2013) roku wytworzyć nowe narzędzie – mikrosondę o bardzo cienkiej, stosunkowo długiej (milimetrowej) końcówce wykonanej z czystych nanorurek węglowych (carbon nanotubes, CNTs). To osiągnięcie stanowi obiecującą możliwość zaprzęgnięcia nanotechnologii do zastosowań neurobiologii, a także przede wszystkim może znacznie ułatwić przeprowadzanie badań na zwierzętach w stanie czuwania.

Zastosowanie mikroelektrod

Wśród szerokiej gamy narzędzi służących do badania różnych funkcji mózgu i całego układu nerwowego znajdują się mikroelektrody. Pozwalają one mierzyć potencjał z rozdzielczością umożliwiającą określenie aktywności jednej komórki, a nawet jej części. Takie pomiary można podzielić co najmniej trojako. Po pierwsze, badanie może zostać przeprowadzone in vitro albo in vivo (przy czym techniki in vivo stosuje się nie tylko do zwierząt, ale też ochotników, co jest usprawiedliwione w pewnych sytuacjach klinicznych). W przypadku analizy sygnałów pochodzących od niezależnych mikrosond, mówi się o single-unit recording, zaś jeśli uwzględniamy sygnały pochodzące od ich wielu, umieszczonych jedna przy drugiej, mówimy o multi-unit recording. Wreszcie najistotniejsze: można rejestrować średni potencjał obok ciała danego neuronu – rejestracja pozakomórkowa (extracellular recording), lub mierzyć go bezpośrednio w jakiejś części komórki – r. wewnątrzkomórkowa.

Rejestracja ostatniego rodzaju wymaga perforacji błony komórkowej (pewne wyjątki i tak wymagają zastosowania nieoptymalnej ze swej natury szklanej mikropipety). W przypadku neuronów kręgowców jest to kłopotliwe ze względu na rozmiar – ich ciała mają średnice z zakresu 5-50 μm. Z tego względu nadzianie neuronu i stabilny pomiar wymagają sondy o odpowiednio mniejszej średnicy.

Do rejestracji wewnątrzkomórkowej od dziesięcioleci stosuje się mikrosondy szklane, wypełnione elektrolitem. Mikroelektrody metalowe, przykładowo wolframowe, ze względu na swoje wymiary nie są do tego stosowane – ich przeznaczeniem jest rejestracja pozakomórkowa. Właściwości mechaniczne i elektryczne tych pierwszych zastawiają wiele do życzenia: są bardzo kruche (tym samym czułe na wszelkie siły nieśródosiowe) oraz mają zbyt wysoką impedancję. Sonda nowego typu powinna wykazywać nie tylko większą elastyczność i większą admitancję, ale też równie zadowalającą odporność na działanie środowiska tkankowego. Nanorurki węglowe, potencjalnie świetnie nadające się do podobnych zastosowań, przez dłuższy czas sprawiały kłopoty z technologią ich obsadzania. Nie udawało się wyjść poza pokrywanie nimi powierzchni płaszczyzn i przewodów, co bywało pomocne jedynie przy zastosowaniach pozakomórkowych.

Budowa i technologia

Opracowana sonda składa się z metalowej nasady oraz podłużnej końcówki uformowanej z nanorurek i pokrytej polimerową izolacją. Końcówka przypomina elastyczną igłę albo usztywnioną nitkę. Nasada jest wolframowym drucikiem o średnicy 125 μm o szpiczastym końcu. Rdzeń igły został wytworzony z czystych, wielowarstwowych nanorurek węglowych, a warstwą izolacyjna z parylenu-C. Jej średnica wynosi mniej więcej 2 μm i kończy się ostrą, odkrytą końcówką w kształcie klina.

Procedura technologiczna składa się z następujących etapów: przygotowanie wolframowego drutu, hodowanie nitki węglowej, wyżarzanie, pokrycie izolacją, a na końcu uformowanie zakończenia igły. Element wolframowy został wyostrzony na końcu przez wytrawianie elektrochemiczne.

Zestaw do dielektroforezy

Najważniejszy etap – wytworzenie nici – został zrealizowany za pomocą dielektroforezy. Metoda ta pozwala na osadzanie podlegających polaryzacji składników roztworu na elektrodach; ponadto została wykorzystana właściwość samozaczepności nanorurek. Nanorurki zostały rozpuszczone w wodzie dejonizowanej wraz z poliwinylopirolidonem (PVP) w funkcji surfaktantu. Zestaw do dielektroforezy składał się z elektrody źródłowej (B), którą był wolframowy drucik, przymocowany do elementu poruszającego się pionowo (A) oraz zanurzonego w roztworze (D) metalowego pierścienia (C), służącego za przeciwną elektrodę. Elektroda źródłowa dotykała powierzchni roztworu dokładnie nad środkiem pierścienia. Obie zostały podłączone do źródła napięcia sinusoidalnego (E) o częstotliwości 10 MHz i amplitudzie zmieniającej się w zakresie 20-40 V. Sonda była wynurzana ze stałą, niewielką prędkością (40 μm/s); którą zwiększono pod koniec procesu, przerywając go w ten sposób. Długość węglowego mikroprzewodu wyniosła ok. 1,5 mm.

Wyżarzanie jest działaniem mającym na celu uporządkowanie struktury wewnętrznej materiału. Zostało ono przeprowadzone za pomocą napięcia o wartości liniowo narastającej, aż do osiągnięcia napięcia progowego (ok. 80 V przy 10 MΩ ograniczenia prądowego). W jego trakcie końcówka sondy dotykała powierzchni kropli wody, umieszczonej na złotym, uziemionym podłożu. Warstwa izolacyjna (parylen-C, ok. 250 nm) została nałożona za pomocą niskociśnieniowego fizycznego osadzania z fazy gazowej (LPPVD – Low-Pressure Physical Vapour Deposition). Igła została przycięta do długości ok. 1 mm, a jej ostrze odpowiednio uformowane. Dokonano tego przy użyciu zogniskowanej wiązki jonów Ga+(FIB – Focused Ion Beam). Napięcie przyspieszające wynosiło 30 kV, natężenie wiązki wynosiło 1 nA dla cięcia zgrubnego i 100 pA przy obróbce wykończeniowej.

Zalety wynalazku

W jaki sposób opracowanie tej technologii może przyczynić się do rozwoju neurobiologii? Nowy typ elektrody, zgodnie z zapewnieniami jego wynalazców, nadaje się zarówno do śród- oraz pozakomórkowej rejestracji potencjału. Mikroelektrody szklane z racji swej kruchości są bardzo podatne na działanie momentów gnących. Zastosowanie techniki wewnątrzkomórkowej do zwierząt swobodnie się poruszających daje pewne rezultaty niemożliwe do otrzymania w inny sposób; tymczasem dotąd było o tyle kłopotliwe, że wymagało sztucznego równoważenia sił działających na sondę. Znaczące uproszczenie pomiarów jest główną zaletą mikrosond nowego typu. Ponadto mogą one być używane wielokrotnie, tak długo jak nie zostaną uszkodzone np. przez uderzenie o twarde podłoże. Ich moduł impedancji, choć dochodzący do 100 MΩ (przy najniższych częstotliwościach), jest i tak o rząd wielkości niższy niż w przypadku elektrolitycznej mikropipety. Z drugiej strony badacze wskazują również na pewne niedoskonałości wytworu, wiążące się z niedoskonałą geometrią czy efektami pojemnościowymi – jak się wydaje ich usunięcie zależy od udoskonalenia parametrów procesu technologicznego.

Źródła:

1. Intracellular Neural Recording with Pure Carbon Nanotube Probes,

Yoon I, Hamaguchi K, Borzenets IV, Finkelstein G, Mooney R, et al. (2013), PLoS ONE 8(6): e65715. doi:10.1371/journal.pone.0065715

http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0065715

2. http://spectrum.ieee.org/nanoclast/biomedical/devices/carbon-nanotubes-capture-electrical-signals-between-neurons

Pomocniczo:

3. http://en.wikipedia.org/wiki/Electrophysiology

4. http://www.scholarpedia.org/article/Intracellular_recording

5.http://www.microprobes.com/images/files/PDF/publications/Single_Electrodes/ext_cellular_single_unit_D.Humphrey_E.Schmidt.pdf

 

Kategoria Biomedyczni, News | Tagi , , , | Skomentuj

Rejestracja aktywności pojedynczej komórki – po co?

Rejestracja mikroelektrodowa (za http://hubel.med.harvard.edu/book/b14.htm)

Rejestracja (zewnątrzkomórkowa) aktywności pojedynczych neuronów in vivo jest techniką, która przyczyniła się do znacznych postępów w neurofizjologii (wraz z pokrewnymi neuronaukami). Najczęściej występuje w źródłach jako “(extracellular) single unit recording” i zgodnie z nazwą jej istotą jest pomiar ciągły potencjału elektrycznego w bliskim sąsiedztwie danego neuronu. Celem niniejszego artykułu jest ogólna prezentacja metody oraz pewnych ciekawych wyników otrzymanych dzięki niej. Co prawda nieco odbiega to od tematyki dominującej w tekstach naszej strony, niemniej stanowi on również swego rodzaju wprowadzenie do kolejnego tekstu, dotyczącego przełomu w podobnych formach rejestracji aktywności neuronalnej in vivo. Postęp ten wiąże się z zastosowaniem nanorurek węglowych (CNT).

Kontekst badań na ochotnikach

Do zrozumienia kontekstu i uwarunkowań takich badań warto przyjrzeć się elektroencefalografii wykonywanej śródczaszkowo, co niekiedy łączy się z leczeniem epilepsji. Napady padaczki dzielą się na częściowe (ogniskowe) oraz uogólnione. Napad częściowy rozpoczyna się w pojedynczej obszarze, natomiast uogólnione zachodzą w wielu częściach mózgu. Leczenie chirurgiczne bywa stosowane przy lekoopornych formach padaczki z napadami częściowymi. Wycięcie ogniska wymaga, aby był ono bardzo precyzyjnie zlokalizowane. Choć nawet zwykła elektroencefalografia wystarczy do stworzenia trójwymiarowego obrazu aktywności elektrycznej, obecność kości i innych tkanek silnie obniża jego dokładność i rozdzielczość. Dlatego część takich przypadków wymaga rejestracji EEG przeprowadzanej śródczaszkowo.

Stosowane są do tego trzy typy elektrod. Paskowe i siatkowe (strip and gird) umieszcza się na powierzchni mózgu. Pozwalają one obrazować pole elektryczne przestrzennie i w wysokiej rozdzielczości, ale ich wprowadzenie wymaga pracy przy otwartej czaszce. Elektrody głębokościowe (depth electrodes), mniej inwazyjne, są cienkimi sondami, których zakończenia umieszcza się blisko obszaru zapalnego./1/ Oprócz elektrod EEG można wprowadzić mikroelektrody, zdolne rejestrować potencjał elektryczny w skali umożliwiającej obserwację aktywności jednej komórki. Ognisko często znajduje się w przyśrodkowej części płatu skroniowego (ang. medial temporal lobe, MTL), która zawiera m. in. hipokamp (hippocampus) – strukturę uczestniczącą w przenoszeniu wspomnień z pamięci krótkotrwałej do długotrwałej. Cała przyśrodkowa część płatu jest zaangażowana w wyższe funkcje poznawcze, takie jak formowanie wspomnień i skojarzeń. Z punktu widzenia badaczy jest to dość istotny fakt. Nie dziwi zatem, że wśród pacjentów szuka się czasem ochotników do badań dotyczących tych funkcji.

Pierwszy z podobnej okazji skorzystał pod koniec lat 80. zespół G. A. Ojemanna., chociaż w tym badaniu nie łączono przewodów różnego rodzaju w jednej sondzie. Bezpośrednio przed usunięciem ogniska wprowadzano wolframowe mikroelektrody w skroniową część kory mózgowej. Ochotnikom dawano do wykonania zadania dotyczące nazywania przedmiotów, czytania słów, wykorzystania werbalnej pamięci krótkotrwałej oraz zadanie kontrolne innego rodzaju. W tym badaniu zostało ukazane, że pojedyncze komórki znacząco zmieniają częstotliwość wysyłania impulsów, co ma wskazywać na pewne relacje łączące pamięć i funkcje językowe. /2,4/

Badania dotyczące MTL

 Jakiś czas temu I. Fried z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) rozwinął tę technikę w taki sposób, że elastyczne mikroelektrody zostały umieszczone na końcu głębokościowej sondy EEG. To pozwoliło na obserwowanie aktywności zarówno pojedynczych komórek, jak i większych jednostek przez kilka dni z rzędu, także w stanie przytomności. /3,4/

W ramach tego badania prezentowano ochotnikom zdjęcia i nazwy (w formie tekstu bądź za pomocą syntezatora mowy) łatwych do rozpoznania prawdziwych i fikcyjnych postaci, a także innych obiektów. Okazało się że pojedyncze neurony w hipokampie uaktywniają się pod wpływem bodźców dotyczących jednej postaci, bądź różnych, bezpośrednio ze sobą związanych. Jeden uaktywniał się pod wpływem (tak rozumianych) znaków odnoszących się do aktorki J. Aniston i jej serialowej towarzyszki, inny na Luke’a Skywalkera i mistrza Yodę, a kolejny pod wpływem wszystkich naukowców, z którymi badany miał do czynienia na terenie ośrodka. Natomiast nie zdarzyło się, aby którakolwiek obserwowana komórka uaktywniała się pod wpływem dwu nieskojarzonych ze sobą bodźców. Aktywny neuron wysyłał przez jakiś czas impulsy elektryczne, przykładowo 6 pików w przedziale od 300 ms do 600 ms od włączenia bodźca. /3,5/

Inne obserwacje wiązały się m. in. z odpowiedzią neuronów kory śródwęchowej (cortex entorhinalis) na pobudzenia o czasie trwania w pobliżu progu reakcji. /4/

Dane te wpisują się w dyskusje toczoną od dziesięcioleci przez neurobiologów na temat sposobu kodowania wspomnień przez mózg oraz liczby komórek nerwowych odpowiedzialnych za jedno wspomnienie. Pierwsza z branych współcześnie pod uwagę hipotez mówi że za przywołanie (a wcześniej zakodowanie) jednego wspomnienia odpowiada rozległa sieć setek milionów, a nawet miliardów neuronów rozsianych po obszarze całego mózgu; jest ono rozłożone na fragmenty. Istotna przy tym jest współpraca całej tej sieci, a nie aktywność tej lub tamtej komórki. Alternatywna hipoteza głosi, że każdemu pamiętanemu pojęciu podstawowemu (nie wspomnieniu, bo ono jest korelatem pojęć, a także czysto zmysłowych wrażeń w rodzaju koloru) odpowiada skupiony klaster, złożony z mniejszej liczby komórek, przypuszczalnie rzędu dziesiątek tysięcy. (Klastry te mają się znajdować w przyśrodkowym płacie skroniowym.) Przez pojęcie rozumiem tutaj to, co łączy różne obrazy danego obiektu w to, co jest wywoływane w skojarzeniu, przykładowo kawiarnia (jako taka) czy jakaś znana nam osoba (bez dalszych dookreśleń). Skojarzenia, a dalej obrazy i wspomnienia są zbudowane z łączących się ze sobą pojęć. Według hipotezy klastrowej pojęcia odpowiadają pewnym skupionym grupom neuronów. Skojarzenia są kodowane dzięki temu, że klastry nakładają się na siebie, innymi słowy część komórek reagujących na bodziec związany z pojęciem A uaktywnia się również pod wpływem bodźca związanego z pojęciem B. “Skłonność komórek do reagowania w zetknięciu z powiązanymi pojęciem może stanowić podstawę do tworzenia epizodycznych wspomnień (takich jak określona kolejność zdarzeń podczas spotkania ze znajomymi w kawiarni) bądź strumienia świadomości przepływającego swobodnie od jednego pojęcia do drugiego”, piszą autorzy 3. źródła.

Hipoteza klastrowa, której te wyniki dają znaczące podparcie, została niedawno dodatkowo wzmocniona przez badania na modelach. Okazało się, że tworzenie połączeń między reprezentacjami pojęć w sieciach rozległych jest bardziej zawodne i dużo wolniejsze niż w sieciach o strukturze klastrowej; ponadto dodanie nowego elementu do systemu klastrowego nie wpływa znacząco na pozostałe składniki. /3/

Perspektywy

Podobnego rodzaju badania przeprowadza się również na zwierzętach, w tym małpach. Niemniej tylko ludzie mogą dać szczegółowy opis swojego doświadczenia, a także wykonywać różnorakie zadania bez potrzeby poprzedzenia ich przewlekłym treningiem. Tego typu metody mają przed sobą pewne perspektywy. Podobne próby, jak przekonuje autor 4. źródła, są możliwe i uzasadnione klinicznie również dla innych struktur korowych i podkorowych. Co bardziej interesujące, możliwy jest postęp sprzętowy – w czerwcu 2013 została opublikowana praca dotycząca mikroelektrod wykonanych ze wspominanych już nanorurek węglowych (zastosowanych jak na razie do mysich komórek). Takie mikroelektrody są znacznie cieńsze od znanych dotychczas metalowych i szklanych.

Źródła:

/1/ Depth, Strip and Grid Electrode Placement for EEG Monitoring in Partial Seizures

http://www.uwhealth.org/healthfacts/B_EXTRANET_HEALTH_INFORMATION-FlexMember-Show_Public_HFFY_1105110029748.html

/2/ http://brain.oxfordjournals.org/content/111/6/1383.abstract

/3/ Komórki pamięci (R. Quian Quiroga, I. Fried, C. Koch)

Świat Nauki 03.2013

/4/ Single-Neuron Recordings in Epileptic Patients (R. Quian Quiroga)

http://www.vis.caltech.edu/~rodri/papers/acnr.pdf

/5/ Invariant visual representation by single neurons in the human brain (R. Quian Quiroga, L. Reddy, G. Kreiman, C. Koch, I. Fried)

http://papers.klab.caltech.edu/175/1/519.pdf

Dziękuję Michałowi Szczęchowi (WUM) za cenne uwagi.

Kategoria News | Tagi , , | Skomentuj

Diagnozowanie schorzeń równie proste co oddychanie.

Zdjęcie mikroskopowe strefy grzewczej płytki oraz układu czujników CCMOSS.

Zdjęcie mikroskopowe strefy grzewczej płytki oraz układu czujników CCMOSS.

Szeroka gama chorób począwszy od astmy, a skończywszy na chorobach wątroby, może być diagnozowana i monitorowana natychmiastowo i zupełnie bezboleśnie tylko na podstawie wydychanego powietrza.

Taką możliwość daje technologia pomiaru parametrów zawartości wydychanego powietrza rozwijana w jednym z ośrodków badawczych w Cambridge, a dokładniej przez Cambridge CMOS Sensors (CCMOSS). Technologia opiera się na emiterze promieniowania z zakresu podczerwieni,  który jest zdolny do wychwycenia ponad 35 biomarkerów pochodzących z wydychanego powietrza, z dokładnością jednej cząsteczki na milion. Co ważne technologia ma wiele zalet. Urządzenie jest bardzo czułe, koszty produkcji są niewielkie, ma małe zapotrzebowanie na energie, a badania za pomocą tego typu urządzeń są całkowicie nieinwazyjne i mogą być wielokrotnie powtarzane w razie potrzeby.

Poza azotem, tlenem, i dwutlenkiem węgla człowiek wydycha z każdym oddechem tysiące innych substancji chemicznych których stężenie można z pewną dozą prawdopodobieństwa połączyć z różnymi schorzeniami np. podwyższony poziom acetonu w wydychanym powietrzu może świadczyć o wczesnym stadium cukrzycy, astmatycy będą wydychać więcej tlenku azotu niż przeciętna osoba, a poziom glukozy w wydychanym powietrzu może świadczyć o niedoczynności nerek.

Badania nad urządzeniami analizującymi oddech przeżywają ostatnio istny renesans i wiele z nich jest w  trakcie badań i testów. Większość korzysta jednak z technologii spektroskopii masowej lub laserów za pomocą których analizowane są poszczególne związki. Nie są one jednak tak efektywne jak badanie podczerwienią gdyż ich zakres działania jest o wiele mniejszy i wykrywają tylko część z substancji.

Jak to działa ?

Technologia CCMOSS różni się tym, że wykorzystuje szerokie pasmo promieniowania podczerwonego do wykrywania jak największej liczby biomarkerów w jednym urządzeniu. Zestaw miniaturowych grzałek na mikropłytce może rozgrzać się od  temperatury pokojowej do 700oC w przeciągu sekundy. Jest to temperatura wystarczająco wysoka by emitowane zostało promieniowanie podczerwone, umożliwiające wykrywanie różnych substancji  w cząsteczkach gazu.

Spora część cząsteczek różnych gazów pochłania podczerwień. Ilość pochłanianego promieniowania pozwala na identyfikację gazu i jego stężenia. Na tej samej zasadzie działa większość popularnych alkomatów. Technologia CCMOSS jest jednak o wiele  bardziej wrażliwa . Za pomocą szerokopasmowej podczerwieni uzyskano możliwość detekcji długości fal pomiędzy 2 a 14 mikronami co odpowiada  wartościom wielu biomarkerów.  W celu wykrycia poszczególnych długości fal  i wyeliminowania szumów zastosowano filtry, które sprawiły że do detektora przedostaje się promieniowanie podczerwone jedynie o określonej długości.

Urządzenia CCMOSS są oparte są na półprzewodnikowych płytkach CMOS niskiej mocy, które są powszechnie stosowane w mikroprocesorach oraz urządzeniach zasilanych  akumulatorami. Ze względu na swoją budowę CCMOSS może działać w miniaturowych urządzeniach, może być produkowane na dużą skalę z zachowaniem bardzo ścisłych parametrów, a koszt produkcji jest niższy od obecnie stosowanych urządzeń do wykrywania  gazów.

Oprócz zastosowań medycznych, firma rozwija swoją technologię do stosowania w elektronice, bezpieczeństwie przemysłowym i samochodowym.

Źródło oraz więcej na: http://ccmoss.com/home.html

Kategoria News | Tagi , , | Skomentuj

Wideootoskop 2.0 – projekt i realizacja

Grupa projektowa:
Artur Tynecki (koordynator projektu)
Anna Zawistowska
Jacek Sikorski
Stefan Hennel

Nasze cele:

Głównym celem projektu jest rozwój istniejącej już wersji demonstracyjnej wideootoskopu powstałej w ramach pracy „Wideoostokop 1.0”.
Szczegółowa analiza problemu pozwoliła nakreślić ogólny plan pracy nad urządzeniem. Przedstawia się on następująco:

  • zaprojektowanie i zainstalowanie odpowiedniej optyki w głowicy wideootoskopu celem polepszenia rozdzielczości obrazu,
  • badania nad doborem odpowiedniego rodzaju oświetlenia,
  • zaprojektowanie oraz wykonanie wersji prototypowej urządzenia: głowica z układem optycznym, schemat płytki elektronicznej PCB, oświetlenie, źródło zasilania, specjalna obudowa,
  • integracja z Platformą Badań Zmysłów.

W momencie, gdy zrealizujemy wyżej wymienione punkty otrzymamy gotowy i w pełni funkcjonalny produkt, który znajdzie swe zastosowanie w podstawowych badaniach laryngologicznych. Testy urządzenia, które zostaną przeprowadzone w ramach współpracy z Centrum Słuchu i Mowy Medincus w Kajetanach, pozwolą wiarygodnie ocenić jego przydatność, jako element Platformy Badań Zmysłów.

Pierwszy etap realizacji:

Pracę nad realizacją projektu rozpoczęto od zaprojektowania optymalnego toru optycznego pozwalającego w znaczny sposób poprawić pole widzenia kamerki, tym samym polepszając percepcję obrazu wnętrza ucha.

schemat - KopiaW tym celu nawiązano współpracę z dr inż. Piotrem Garbatem, pracownikiem Instytutu Mikroelektroniki i Optoelektroniki, Wydziału Elektroniki i Technik Informacyjnych, Politechniki Warszawskiej. Dzięki temu mieliśmy możliwość przeprowadzenia badań nad ustaleniem odpowiedniego układu optycznego w Laboratorium Pomiarów Fotometrycznych.

Wielogodzinne prace w laboratorium zaowocowały uzyskaniem satysfakcjonującego obrazu na ekranie komputera.

efektPonadto utworzony został schemat układu optycznego, który stanowić będzie podstawę nowej wersji wideootoskopu.

TorCo dalej?

W dalszej części projektu skupimy się nad rozwiązaniu problemu konstrukcji odpowiedniego rodzaju oświetlanie wraz z możliwością regulacji jego intensywności. Ponadto, niemal równolegle, trwać będą pracę nad doborem źródła zasilania elementów oświetlania. Wszystkie te elementy zostaną połączone w integralną całość i zaimplementowane do nowej wersji urządzenia.  Będzie to niezwykle ważny etap w pracy, który pozwoli określić rozmiar i kształt gotowego przyrządu, a tym samym da możliwość kontynuowania prac nad projektem.
Kolejne relacje z postępów w pracach nad tym jakże interesującym projektem już niebawem. Trzymajcie za nas kciuki!

Kategoria Projekty | Tagi , , , , | 1 komentarz

GammaKnife – przełom w leczeniu guzów mózgu

0_Gamma-Knife-Zentrum-122

Urządzenie GammaKnife daje nadzieję tysiącom chorych ludzi na nowotwory mózgu w Polsce- ta rewolucyjna metoda jest bezbolesna, nieinwazyjna i nie wiążę się z ryzykiem wystąpienia powikłań po dotychczasowej neurochirurgii.

Co to jest GammaKnife?  

Jeśli od razu pomyśleliście o nożu chirurgicznym to jesteście w błędzie. Jest to urządzenie stosowane aktualnie w radiochirurgii, które całkowicie usuwa tkanki nowotworowe. Zbudowane jest ono z hełmu posiadającego 201 otworów, a każdy z nich skupia wiązkę promieniowania gamma, dzięki czemu otrzymujemy prawie 200krotne wzmocnienie, które precyzyjnie niszczy chore komórki.

Leczenie guzów mózgu:

Po zdiagnozowaniu typu nowotworu lekarze kierują pacjenta na leczenie chirurgiczne czy też na radio – bądź chemio-terapię. Zastosowanie tych metod powoduje znaczącą ingerencje w organizm pacjenta – często jest wyniszczony i po odbyciu długiego czasu rekonwalescencji musi odbyć rehabilitację by powrócić do normalnego funkcjonowania.

Inaczej jest w przypadku zastosowania GammaKnife. Zabieg polega na założeniu przez pacjenta konstrukcji z otworami a następnie napromieniowaniu go. Ponadto zabieg trwa od 20min do 2 godzin, zaś chory nie wymaga wcześniejszego przygotowania a po wykonaniu terapii może od razu wracać do domu! Niepotrzebne jest zażywanie leków oraz otwieranie czaszki! Czy to nie wspaniałe?

A i owszem, jednakże ta metoda może być stosowana tylko dla nowotworów o średnicy nieprzekraczającej 3.5cm, dlatego tak ważne jest by jak najwcześniej za pomocą rezonansu magnetycznego czy też tomografii komputerowej wykrywać wszelkie nieprawidłowości.

Zastosowanie:
Leczenie:

  1. zarówno nowotworów złośliwych jak i łagodnych mózgu
  2. guzów rozsianych
  3. nerwu trójdzielnego
  4. naczyniaków, oponiaków
  5. nerwiaków nerwu słuchowego – śmiertelnie niebezpieczne dla pacjentów , ponieważ często wiąże się z poważnymi powikłaniami po wycięciu

Na zakończenie warto dodać iż zastosowanie GammaKnifu jest tańsze od dotychczasowym rodzajów leczenia guzów mózgu o ok. 30%. Niestety, póki co NFZ nie finansuje tego badania (jest ono niezwykle drogie), ale mam nadzieje ze po dostrzeżeniu zalet tej metody zmieni się i to rozporządzenie.

Źródła:

http://www.gammaknife.org.uk/web/WhatIsGammaKnife.html
http://www.natemat.com.pl/zdrowie/onkolog/guzy-mozgu.html

Kategoria Biomedyczni, News | Skomentuj

BIOTEETH – Marzenia o pięknym i naturalnym uśmiechu

Najnowsze badania naukowców pod kierownictwem prof. Paula Sharpe, eksperta z Londyńskiego Instytutu Stomatologicznego, opisują postęp w metodzie zastąpienia brakujących zębów implantami, całkowicie innymi niż dotychczas stosowane.

usmiech

Skąd wziąć nowe zęby?
Założeniem owej metody jest wygenerowanie implantu z własnych komórek dziąseł. Badania skupiły się jednak na pozyskaniu komórek od pokolenia niedojrzałych zębów. Są to zawiązki zębów pochodzące od płodu. Mogą być one przeszczepione w postaci małej “granulki” do szczęki dorosłych ludzi i rozwijać się w funkcjonalne uzębienie.

Drobne problemy
Ponieważ zastępując zęby implantami, nie odtwarza się naturalnej struktury korzenia, tarcie związane choćby z jedzeniem czy ruchem drugiej szczęki  prowadzi do zaniku kości wokół wszczepu i może spowodować jego wypadnięcie.
Wyzwaniem pozostaje zidentyfikowanie komórek nadających się do opisanego celu. Dotąd naukowcy często posługiwali się komórkami embrionalnymi, ale choć spełniają one swoją funkcję, z oczywistych względów etycznych nie sprawdzą się w codziennej praktyce klinicznej.  Postawione przez Brytyjczyków warunki nie powinny dziwić, zważywszy, że podczas ciąży poszczególne części zawiązki zębów powstają z jednej z dwóch tkanek embrionalnych: nabłonkowej lub mezenchymatycznej.

Optymistyczna perspektywa
Podczas eksperymentów zespół wykorzystał tkankę dziąsłową pacjentów leczonych w Instytucie Stomatologii KCL. Komórki namnażano, a następnie mieszano z mysimi komórkami mezenchymatycznymi. Przeszczepiając gryzoniom taki koktajl, naukowcy byli w stanie uzyskać hybrydowe zęby ze szkliwem, zębiną oraz korzeniami.
Jak tłumaczy profesor Sharpe, kolejnym krokiem naukowców będzie ustalenie, jak hodować komórki mezenchymalne dorosłego ludzkiego organizmu, tak by działały one na podobnej zasadzie co komórki embrionalne.

Zatem nie pozostaje nam nic innego jak uzbroić się w cierpliwość i oczekiwać, iż sztuczne protezy naszych dziadków usuną się w ciemny kąt, zaś hollywoodzki uśmiech będzie w zasięgu każdego z nas.

źródło:

http://www.kcl.ac.uk/newsevents/news/newsrecords/2013/03-March/Biological-tooth-replacement-a-step-closer.aspx

Kategoria News | Tagi , , | Skomentuj

Human Brain Project

Intrygująco brzmiący projekt wygrał w konkursie Komisji Europejskiej (KE) na strategiczny, długofalowy projekt badawczy (obok ”Grafenowego Projektu Flagowego”) w ramach programu FET Flagship. Wskazane przez KE badania będą prowadzone aż przez 10 lat! Czym jest jednak niezwykła inicjatywa łącząca naukowców z niemal wszystkich krajów Europy?

O co chodzi?

Celem wspólnej pracy naukowców jest stworzeniem modelu komputerowego ludzkiego mózgu dzięki wykorzystaniu mocy obliczeniowej superkomputerów w połączeniu z opracowaniem sieci neuronowej i wyznaczeniem zależności pomiędzy neuronami. Różne części mózgu odpowiadają za inne czynności (nauka, czucie, wzrok, mowa itd.). Sam mózg jest elastyczny i może przydzielać zadania do obszarów które wcześniej nie zajmowały się daną czynnością( np. kora wzrokowa osób niewidomych aktywuje się na bodźce dotyku). Stworzenie mapy regionów odpowiedzialnych za poszczególne czynności ma pomóc zrozumieć działanie naszego ‘centrum sterowania’ jako całości . Wiedza ta pozwoli odpowiednio oszacować zmienne opisujące działanie oraz zachowanie każdego neuronu i umiejętnie wprowadzić je do symulacji . W opracowaniu tych zależności ma pomóc gromadzenie danych medycznym związanych ze strukturą mózgu i jego aktywnością. W ramach projektu ma być utworzona baza danych na podstawie skanów mózgu z jednostek medycznych i szpitali z całego świata. Przetwarzane będą dane zarówno osób chorych jaki i zdrowych. Do znalezienia zależności pomiędzy zmianami chorobowymi będzie trzeba oszacować odpowiednią metodę detekcji i zaimplementować efektywne przetwarzanie danych. Z tego powodu wszystkie informacje mają być gromadzone w jednym miejscu i przetwarzane za pomocą superkomputerów. Superkomputery poza analizą danych mają być odpowiedzialne za częściową symulacji mózgu.

Dlaczego HBP jest taki ważny?

Choroby mózgu są w Europie najdroższe w leczeniu, a ich koszty przewyższają wydatki na choroby serca, raka czy cukrzyce razem wzięte. Ponieważ obecna medycyna ma spore problemy z obiektywnym wykrywaniem chorób mózgu, projekt Human Brain Project (HBP) ma szansę zmienić tę sytuację. Co więcej, przyczyni się on do uzyskania wiedzy na temat mutacji DNA, które powodują daną chorobę. Pozwoli to na opracowanie konkretnego i skutecznego leczenia. Istnienie symulacji umożliwi tworzenie i testowanie potencjalnie skutecznych leków, które nie mogłyby być przetestowane w inny sposób (lub testy trwałyby zbyt długo). Możemy także przewidzieć jak skuteczne jest dane leczenie.

Projekt będzie stymulował do rozwoju również inne dziedziny wiedzy np. elektronikę. Powodem stymulacji tej gałęzi technologii jest tym momencie problem ograniczonej mocy superkomputerów, które nie są w stanie poradzić z pełną symulacją mózgu. Rozwiązaniem ma być zbudowanie nowej infrastruktury technologicznej oraz opracowanie urządzeń działających podobnie do ludzkiego mózgu (tzw. komputery neuromorficzne). Sądzę, że projekt prowadzony na taką skalę usprawni współprace między ośrodków badawczymi, a to z kolei może zaowocować osiągnięciem lepszych rezultatów na innych polach nauki.

Polski wkład w program

Do początkowych 13 uczestników projektu HBP dołączyli kolejni (teraz w sumie 87). Ośrodki z Polski również w nim uczestniczą. Jedyną osobą z naszego kraju wymienioną na oficjalnej stronie przedsięwzięcia jest dr. hab. Piotr Bogorodzki z Zakładu Elektroniki Jądrowej i Medycznej, Instytutu Radioelektroniki wydziału EITI z Politechniki Warszawskiej, którego zespół odpowiada za gromadzenie danych medycznych, co stanowi ważną część projektu.

Omówienie po polsku z udziałem dr. hab. Piotra Bogorodzkiego:

1) http://www.tvn24.pl/polacy-wspoltworza-sztuczny-mozg,303219,s.html

Dla głodnych wiedzy:

2) http://www.humanbrainproject.eu

3) http://www.ire.pw.edu.pl/~binskcvs/jml/

Kategoria Biomedyczni, News | Tagi , , , , , | Skomentuj

‘Biomedyczni’ w Światowym Centrum Słuchu w Kajetanach

15 marca mieliśmy okazję zobaczenia i doświadczenia badania skanerem rezonansu magnetycznego znajdującego się w Światowym Centrum Słuchu w Kajetanach (ok. 20 km od centrum Warszawy). Skaner ten (o polu magnetycznym 3T) jest jednym z najlepszych sprzętów na świecie stosowanym obecnie nie tylko w diagnostyce, ale również w neurologii, psychiatrii, audiologii oraz badaniu zaburzeń metabolizmu.

Dodatkowym urządzeniem, które mogliśmy zobaczyć był aparat do rejestracji EEG. Jednoczesne EEG-fMRI pozwala na uzyskanie zarówno rozdzielczości czasowej dostępnej przy badaniu EEG, jak i rozdzielczości przestrzennej badania techniką MRI. Na początku więc jednemu z kolegów został założony specjalny czepek z 64 elektrodami. Kontakt ze skórą na głowie został zapewniony poprzez nasączone specjalnym płynem gąbki. Wypełnianie takich gąbek jest czynnością długotrwałą i wymagającą cierpliwości (zarówno od przeprowadzającego badanie jak i od osoby badanej).  Po przeprowadzeniu EEG, przystąpiliśmy do obserwacji badania rezonansem magnetycznym. Składa się ono z dwóch części – anatomicznej, w trakcie której pacjent leży w bezruchu,  oraz z funkcjonalnej, w której pacjent musi wykonać jakąś czynność. W naszym przypadku było to sekwencyjne zamykanie i otwieranie oczu. Całe badanie trwało ok. 30 minut, więc w trakcie części anatomicznej została puszczona bajka, obserwowana przez osobę badaną za pomocą specjalnych gogli. Dodatkowo pacjentowi zakładane są również słuchawki na uszy, które trochę wyciszają duży hałas spowodowany przez naprężenia powstałe na skutek dużego prądu przepływającego przez cewki gradientowe pola magnetycznego.  W samym badaniu MRI stan czynnościowy mózgu można ocenić dzięki nieutlenowanej części hemoglobiny, która wykazuje silne własności magnetyczne. Poziom jej zmienia się wtedy, gdy następuje zmiana aktywności neuronów.

Szczegółowy opis sprzętu stosowanego w Centrum Obrazowania Biomedycznego znajduje się na stronie:

http://ncob.ifps.org.pl/home.php?site=wyposazenie

Po wykonaniu badań i wykładach tłumaczących zasady działania MRI i EEG, mogliśmy wejść do pomieszczenia, w którym znajduje się skaner i przekonać się jak silne jest jego pole magnetyczne.

Pole magnetyczne 4T skanera MRI:

http://www.youtube.com/watch?v=6BBx8BwLhqg

Na koniec zobaczyliśmy aparaturę do badania CT (tomografia komputerowa) oraz jedną z najnowocześniejszych sal przeznaczonych do nauki dla specjalizujących się chirurgów, w której każdy z nich może pracować przy oddzielnym stole i mieć bezpośredni przekaz  z sali operacyjnej.

Kategoria Relacje | Skomentuj

DNA dyskiem twardym?

Mimo, że brzmi to dziwnie, odpowiedź jest twierdząca. W ludzkim DNA są przechowywane informacje o budowie i syntezie białek, więc czemu nie użyć DNA do zapisu innych rodzajów danych? Pytanie to postawili sobie 20-kilka lat temu naukowcy i zaczęli badania nad zapisem informacji w DNA. Jednak przez długi okres czasu borykali się z kilkoma problemami.

Co i jak?

Główną przeszkodą był brak możliwości zapisywania dużych ilości danych. Mimo wszystko naukowcom z European Bioinformatics Institute udało się ją obejść. Jako dane do zapisu w DNA wykorzystali przemówienie Marcina Luter Kinga, 154 sonety Shakespeara, publikację naukową w formacie pdf oraz obrazek ich Instytutu. Łącznie pliki zajmowały 0,757 MB.

Dane najpierw zamieniono z kodu binarnego na kod trójkowy(poza 0 i 1, tak jak w kodzie binarnym, do zakodowania wykorzystywana jest także cyfra 2). Następnie przy pomocy symulacji komputerowej ułożyli pełen łańcuch DNA reprezentujący dany plik. Potem podzielono te dane na nakładające się w 75% segmenty o długości 100 baz i zapisali jako faktyczne informacje w DNA. Dzięki operacji podzielenia na kawałki udało się uzyskać możliwość zapisania tych plików, a naukowcy twierdzą, że tym sposobem można zapisywać dowolnej ilości dane. Trzeba również zaznaczyć, że udało się odczytać informacje w 100%.

Zalety i wady

Po pierwsze, przechowywanie danych w DNA nie wymaga aktywnego systemu podtrzymywania pamięci (potrzebne jest tylko zimne, suche i ciemne środowisko). Po drugie, czas przechowywania danych liczy się w tysiącach lat co jest nieosiągalne przez obecne nośniki informacji. Po trzecie, gęstość upakowania danych jaką osiągnęli naukowcy wynosi około 2.2 PB (czyli 1 000 000 GB) na gram co jest wielkością niesamowitą .

Niestety nie jest tak różowo. Główną bolączką tego systemu jest kosz odpowiedniego sekwencjonowania DNA oraz jego odczytu, który na razie uniemożliwia stosowanie tego rozwiązania na szeroką skalę.

Co czeka nas w przyszłości?

Uczeni twierdzą, iż za kilka lat zapisywanie baz danych (które mają głównie służyć do przechowywania informacji, przy ich rzadkim odczycie) w DNA, będzie stanowiło tańszą alternatywę dla obecnie stosowanych nośników pamięci. Wraz ze zmniejszaniem się kosztów zapisu i odczytu, możliwe że takie dyski oparte na DNA zawitają kiedyś pod strzechy.

Więcej informacji w linku:

1) http://www.nature.com/nature/journal/vaop/ncurrent/full/nature11875.html#ref18

Kategoria Biomedyczni, News | Tagi , , , , | Skomentuj

Robot – chemik, który może pomóc w przyspieszeniu rozwoju nowych materiałów

Brytyjscy naukowcy podjęli pierwszy krok w celu zbudowania robota, który może pomóc w odkrywaniu nowych materiałów, a także wymyślić sposób ich przyszłego wytwarzania.

Naukowcy pracujący przy projekcie Dial-a-Molecule, zrzeszającym uniwersytety i firmy z całej Wielkiej Brytanii, opracowali system, który automatycznie przeprowadza eksperymenty z użyciem różnego rodzaju surowców, aby stworzyć nowe substancje o ściśle określonych właściwościach. Technologia ta w przyszłości może znacznie przyspieszyć proces tworzenia nowych cząsteczek, nanocząstek oraz leków przy jednoczesnym rozwoju skalowalności wytwarzania, która przyczyni się do zminimalizowania strat.

Jak to działa?

Prototyp takiego systemu pobiera od użytkownika informacje na temat substancji, które ma wykorzystać i na tej podstawie przeprowadza eksperymenty w niewielkim reaktorze przepływowym – urządzeniu do przeprowadzania reakcji chemicznych, w którym doprowadzanie substratów i odbiór produktów są jednoczesne i ciągłe – dopóki nie wytworzy materiału o pożądanych właściwościach. Natomiast algorytm komputerowy dopuszcza, aby maszyna uczyła się na podstawie już przeprowadzonych eksperymentów i sama przeprowadzała następne (tak jak zrobiłby to sam człowiek), i tak aż do momentu znalezienia odpowiednich warunków do produkcji danego materiału.

Co będzie dalej?

Zespół Dial-a-Molecule planuje współpracę z partnerami przemysłowymi, aby przeprowadzać eksperymenty związane z opracowywaniem płynnych preparatów spożywczych, smarów i paliw. Naukowcy mają także nadzieję, że przyszła wersja systemu może pracować przy projektowaniu określonych cząsteczek.

Jeden z naukowców zaangażowanych w Dial-a-Molecule, starszy wykładowca na Uniwersytecie w Brunel, dr Harris Makatsoris podkreśla, że technologia ta nie pozbawiałaby chemików pracy, ale raczej pomogłaby ją zautomatyzować.

Czy mamy się obawiać, że roboty zastąpią nas w każdej dziedzinie życia?

Moim zdaniem na razie nie mamy się czego obawiać. Roboty z pewnością nas nie zastąpią, gdyż zawsze ktoś będzie musiał sprawować nad nimi kontrolę, a także zapewnić im poprawne funkcjonowanie. Roboty jedynie mogą polepszyć, ułatwić, przyspieszyć i zautomatyzować naszą pracę, z czego powinniśmy się tylko cieszyć.

Na podstawie:

http://www.theengineer.co.uk/robot-chemist-to-speed-up-new-material-development/1015904.article

Kategoria News | Tagi , , , , | Skomentuj