Atomowe klocki

Szacuje się, że między rokiem 2010 a 2020 tranzystory w mikroprocesorach osiągną szerokość 4-5 atomów. Dalsze zmniejszanie układów, a tym samym zwiększanie ich wydajności, nie będzie tą drogą możliwe. By postęp nie uległ zahamowaniu, niezbędne może się stać składanie chipów z pojedynczych atomów. Czy będzie to możliwe?

Za wizjonera uchodzi Gordon Moore, współzałożyciel koncernu Intel, który ponad 20 lat temu trafnie przewidział, że gęstość upakowania tranzystorów w układach elektronicznych będzie się podwajać co 18 miesięcy. Jednak kolejne 20 lat wcześniej inny geniusz – fizyk noblista Richard Feynman – wieszczył, że tradycyjna elektronika, która wówczas dopiero raczkowała, nie wystarczy na długo.

Feynman starał się udowodnić, że dla rozwoju najważniejsze są rzeczy najmniejsze. W czasach gdy nie znano kalkulatorów kieszonkowych, przedstawił on wizję urządzenia, które stanowi wyzwanie dla współczesnych naukowców: nanokomputera. Przed 40 laty, 29 grudnia 1959 roku, na forum Amerykańskiego Towarzystwa Fizycznego Feynman wygłosił legendarne przemówienie, noszące intrygujący tytuł: “Na dole istnieje jeszcze sporo miejsca”. Podczas wykładu prorokował masowe budowanie urządzeń z pojedynczych atomów oraz powstanie komputerów, których wielkość mierzyć się będzie w nanometrach. Jeszcze dzisiaj – ponad jedenaście lat od swojej śmierci – Richard Feynman wzbudza w kręgach naukowych niekłamany podziw, wywołany jego wizjonerskimi poglądami na nową dziedzinę nauki – nanotechnologię.

Grecki karzełek o wysokości jednej miliardowej metra

Termin “nano” pochodzi z języka greckiego i oznacza karła. W fizyce przedrostek ten stosuje się do określania rozmiarów (por.: Kilka słów o wymiarach…) mierzonych w miliardowych częściach jednostki wielkości. Jeden nanometr (nm) jest zatem jedną miliardową metra lub jedną milionową milimetra. Niełatwo sobie wyobrazić tak małą jednostkę długości, gdy ludzki włos liczy dziesięć tysięcy nanometrów grubości. W jednym nanometrze mieści się 3-5 atomów, czyli podstawowych elementów konstrukcyjnych materii i – być może – podstawowego budulca przyszłości.

Hołd dla wizjonera: w 1965 roku Richard Feynman otrzymał Nagrodę Nobla w dziedzinie fizyki. Opracowana przez niego teoria stanowi obecnie podstawę badań nad skonstruowaniem nanokomputera.

Urządzenia o miniaturowych wymiarach wykorzystywane są od dawna w mikroelektronice. Rozmiary nowoczesnych podzespołów elektronicznych są tak niewielkie, że ludzkie oko nie jest już w stanie ich dostrzec. Najmniejsze z dostępnych obecnie tranzystorów mają wielkość zaledwie 200 nanometrów.

Obiekty o tak niewielkich rozmiarach są niedostrzegalne pod mikroskopami optycznymi. Aby obejrzeć szczegóły konstrukcyjne tranzystorów oraz dostrzec ścieżki przewodzące w mikroprocesorach, musimy dysponować mikroskopem elektronowym.

Rozmiary tych obiektów są jednak ogromne w porównaniu ze strukturami przyszłości, wykonanymi w nanotechnologii. Jeśli przyjmiemy, że współczesny tranzystor zajmuje powierzchnię średniowiecznej katedry, to tranzystor opracowany w nanotechnologii będzie miał rozmiary ręcznika. Jeśli branża informatyczna będzie nadal rozwijała się w takim tempie jak obecnie, to w ciągu mniej więcej 15 lat podzespoły elektroniczne zmniejszą się dziesięciokrotnie, osiągając rozmiary zaledwie 10 nanometrów. Taka wielkość odpowiada w przybliżeniu 40 atomom umieszczonym obok siebie.

Stale kurczące się tranzystory

Dzisiejsze tranzystory mają tysiąckrotnie mniejsze wymiary od swoich poprzedników sprzed 30 lat. Lepsze i bardziej precyzyjne metody produkcji układów elektronicznych sprawiły, że wytwarzanie niezawodnych, miniaturowych podzespołów mogło rozwinąć się na skalę przemysłową. Tranzystor, który w 1970 roku liczył około 0,01 mm wielkości, po 15 latach zmniejszył się dziesięciokrotnie. Obecnie rozmiary takiego układu są mniejsze o kolejny rząd wielkości.

Produkcja chipów przyszłości: przy miniaturyzacji struktur litografia elektronowa i rentge- nowska natrafia na bariery fizyczne. Sposobem na obejście tych ograniczeń jest wykorzystanie nanotechnologii.

Mikroskopijne podzespoły elektroniczne cechują dwie zasadnicze zalety: są szybsze oraz tańsze. Między innymi z tego względu ceny nowych pecetów maleją, chociaż ich wydajność wzrasta. Od lat sześćdziesiątych cena jednego bita zapisanej informacji obniżyła się z około 5 do 0,0005 centa. Jednocześnie mogliśmy zaobserwować ciągły wzrost szybkości pracy komputerów. Jeśli kiedyś na wykonanie jednej operacji arytmetycznej potrzebowały one 0,1 sekundy, to obecnie zadanie to zajmuje im kilka nanosekund, a więc niewielki ułamek pierwotnej wielkości.

Nanotechnologia genów i komórek

W przyrodzie od dawna znane są obiekty o rozmiarach nano, np. organiczne cząsteczki w komórkach wszystkich żywych organizmów. Profesor Rick Smalley, laureat Nagrody Nobla z chemii w 1996 roku, nazywa ten fakt “mokrą stroną nanotechnologii”, gdyż komórki są wypełnione roztworem wodnym.

Testowe rozmieszczenie półprzewodnikowych kryształów: przewody doprowadzające mają grubość mniejszą niż ludzki włos (20 mikrometrów), natomiast umieszczone w środku struktury nano są jeszcze tysiąc razy mniejsze (14,9 nanometra).

Znajdujące się w ich wnętrzu cząsteczki, np. enzymy, funkcjonują wyłącznie w środowisku wodnym. Zdarzają się wśród nich tak skomplikowane “urządzenia”, jak miozyna czy kinezyna, które są liniowymi silnikami, oraz działająca jak silnik rotacyjny F1 ATP-aza.

Naturalne, biologiczne nanomechanizmy (nanomolekuły) cechuje specjalna pamięć danych, która swoją zawartością informacyjną przewyższa każdy inny nośnik: geny. “Organicznej” nanotechnologii nie można jednak łatwo przenieść na grunt techniki komputerowej. Niektóre mechanizmy, np. łącza elektryczne, nie mogą chociażby funkcjonować w wodzie. Aby móc budować tranzystory na poziomie pojedynczych atomów, potrzebna jest zatem “sucha” nanotechnologia.

Sucha nanotechnologia – nadzieja na przyszłość

Chociaż nadzieje związane postępem w badanich nad nowymi technologiami są ogromne, to jednak naukowców czekają równie duże problemy do przezwyciężenia. Jedną z głównych przeszkód stanowi techniczna strona produkcji najmniejszych struktur. Dzisiejsze metody masowej produkcji podzespołów elektronicznych zdają się zbliżać do kresu możliwości elektroniki przemysłowej. Główną przyczyną takiej sytuacji jest długość fali światła. Wartość ta – dla pasma światła widzialnego – zawiera się w przedziale od 380 do 780 nanometrów.

Układy komputerowe powstają w wieloetapowym procesie, którego najważniejszą częścią jest litografia: materiał do produkcji procesorów jest wówczas naświetlany podobnie jak fotografie. Gdy poszczególne elementy tworzonej struktury będą tak małe jak długość fali światła, wówczas ich krawędzie zaczną się rozpływać, a odwzorowanie oryginału będzie niedokładne i w konsekwencji zabraknie niezbędnej w tym przypadku precyzji. Aby rozwiązać ten problem, konstruk-torzy stosują światło o jak najmniejszej długości fali, a więc ultrafioletowe. Niektóre metody wykorzystują promienie rentgenowskie, które cechują jeszcze krótsze fale, lub bombardowanie elektronami.

Info
Grupa dyskusyjna
Uwagi i komentarze do artykułu:
#
Internet
Odczyt Feynmana:http://www.zyvex.com/nanotech/feynman.html
Foresight Institute:http://www.foresight.org/
Engines of Creation:http://wfmh.man.szczecin.pl/enginesofcreation/
NASA Nanotechnology Team:http://www.nas.nasa.gov/Groups/SciTech/nano/index.html
Nanotechnology and the next 50 years:http://cnst.rice.edu/dallas12-96.html
The nanoManipulator:http://www.cs.unc.edu/Research/nano/
Nanoelektronics & Nanocomputing:http://www.mitre.org/research/nanotech/
Nanotechnologie:http://www.nanotechnology.de/
Więcej:bezcatnews