szukaj
Telewizor w chusteczce
Rozmowa z prof. Jerzym Rużyłłą o granicach miniaturyzacji i nowych materiałach w elektronice

Edwin Bendyk: – Prezydent Barack Obama radykalnie zwiększył finansowanie badań naukowych w USA. Czy doprowadzi to do naukowo-technicznej rewolucji, o jakiej mówi Steven Chu, nowy szef Departamentu Energii i laureat Nagrody Nobla z fizyki?

Prof. Jerzy Rużyłło: – Rzeczywiście, wszystko wskazuje na to, że pieniędzy będzie więcej. Uczeni spieszą się z nowymi pomysłami, bo widzą, że dziś mają one znacznie większą szansę na sfinansowanie niż rok temu. Ja także biorę się za pisanie kolejnych propozycji. Nie wiem natomiast, na czym miałaby polegać rewolucja, bo nauka i technika nie rozwijają się metodą rewolucyjnych skoków. Ich istotą jest żmudna praca nad doskonaleniem kolejnych pomysłów i wdrażaniem ich w życie. Elektronika i fotonika półprzewodników, dziedzina, którą reprezentuję, doskonale ilustruje tę prawdę.
 

Trudno mi się zgodzić z tą opinią, bo coraz częściej słyszę, że przyszłość należy do komputerów chemicznych, w których funkcję układów logicznych pełnią pojedyncze cząsteczki. Coraz więcej pisze się o komputerach kwantowych, biologicznych...

O komputerach chemicznych mówiono już wiele lat temu i wciąż jest to wizja odległa. Chętnie spisałbym wszystkie te rewolucyjne zapowiedzi, by sprawdzić, co się wydarzyło naprawdę, a co było jedynie naukowym marketingiem uprawianym, by zdobyć pieniądze na badania. Tymczasem w elektronice nadal króluje krzem. To on modyfikowany i uzupełniany innymi materiałami ciągle pozwala na obchodzenie barier fizycznych, które miały teoretycznie uniemożliwić postęp w rozwoju układów mikroelektronicznych.

Co to za bariery?

W walkach o nowe generacje mikroprocesorów i pamięci głównie chodzi o to, aby skrócić czas potrzebny elektronom do pokonania określonych dystansów w tranzystorach tworzących układy mikroprocesorowe i pamięciowe. Najbardziej oczywistym rozwiązaniem jest skrócenie tych dystansów przez miniaturyzację. Wymaga to ciągłego doskonalenia metod fotolitografii, czyli sposobów kształtowania coraz mniejszych elementów układów scalonych. I choć fotolitografię skazano na rychłą śmierć już 30 lat temu, to jednak, ciągle ulepszana, pozostaje ona lokomotywą postępu elektroniki, a więc i całej współczesnej cywilizacji technicznej. Moim zdaniem, nic się nie zmieni w ciągu najbliższych lat i za pomocą obecnie rozwijanych technologii zejdziemy do geometrii układów scalonych rzędu 10 nanometrów, co kiedyś wydawało się zupełnie nieosiągalne.

Ale przecież miniaturyzacja nie może trwać w nieskończoność.

Dlatego jednocześnie z miniaturyzacją rozwijamy inne metody pokonywania lub omijania barier fizycznych. Na przykład przez przyspieszanie elektronów zamiast skracania pokonywanych przez nie dystansów w tranzystorze. Osiąga się to modyfikując strukturę krystaliczną krzemu, a na dłuższą metę integrując krzem z materiałami, w których z natury rzeczy elektrony poruszają się szybciej niż w krzemie. Jednocześnie cały czas wprowadza się zmiany w konstrukcji samych tranzystorów.

Nawet jednak proste pozornie i oczywiste zmiany zajmują wiele lat. Dlaczego? Po pierwsze, ze względu na trudności techniczne, a po drugie dlatego, że przemysł elektroniczny jest bardzo konserwatywny i decyduje się na wprowadzanie zmian w stosowanych materiałach, geometriach układów i metodach produkcji dopiero wówczas, gdy zyska przekonanie, że bez zastosowania nowych technologii dalszy postęp nie będzie możliwy. W grę wchodzą miliardy dolarów, mikroelektronika to dziś jeden z najbardziej intensywnych kapitałowo przemysłów.

Niechętnie mówi pan o rewolucji, a jednak wiadomo, że pewne kierunki badań są bardziej gorące, a inne mniej.

W tej chwili dużym zainteresowaniem cieszą się badania związane z energią. Portfele sponsorów otwierają się także na pomysły, w których często pojawia się przedrostek bio, natomiast z nieco większym chłodem podchodzi się do wyeksploatowanego już przedrostka nano. Co to oznacza w praktyce? Ja wciąż wprawdzie zajmuję się elektroniką opartą na krzemie, ale znaczną część swojego wysiłku badawczego przestawiłem na prace nad technologiami wyświetlaczy, jak i elementami półprzewodnikowymi mającymi zastąpić tradycyjne, bardzo energochłonne źródła oświetlenia. Wyświetlacze, czyli ekrany komputerów, telewizorów, komórek – to najbardziej efektywny sposób komunikacji człowieka ze światem cyfrowym. Nie zmieni się to, dopóki nie opanujemy metod bezpośredniego, choć za pośrednictwem odpowiednich sensorów oczywiście, sprzężenia mózgu z elektronicznymi układami cyfrowymi. To nie science fiction, bo już dziś piloci amerykańskich samolotów bojowych sterują wieloma funkcjami swoich maszyn bezpośrednio za pomocą myśli. My jednak długo jeszcze będziemy posługiwać się wyświetlaczami, a ponieważ to one zużywają najwięcej energii w przenośnych urządzeniach elektronicznych, konieczność ich ulepszania jest wciąż pilna.

Wiele mówi się o wyświetlaczach elastycznych, podobnych w użytkowaniu do zwykłego papieru, jednak ze wszystkimi zaletami ekranu elektronicznego. Wydawcy prasy liczą, że dzięki nim uda się przeprowadzić gazety z epoki druku do epoki cyfrowej.

Postęp w dziedzinie wyświetlaczy elastycznych jest błyskawiczny. Kiedy się upowszechnią? Żeby odpowiedzieć na to pytanie, należy przypomnieć, jak działa przemysł i rynek. Jeśli nie istnieją zasadnicze przeszkody poznawcze, by zamienić pomysł na produkt, wówczas rozwiązanie problemów technicznych zależy jedynie od ilości pieniędzy przeznaczonych na ten cel. To zaś zależy od kalkulacji, jaki będzie popyt na nowe urządzenia. Połączenie łatwo przenośnych elastycznych ekranów z bezprzewodowym dostępem do Internetu otworzy nowe możliwości w dziedzinie przekazu i odbioru informacji. Nie widać zasadniczych barier uniemożliwiających takie zastosowania. Pytanie jednak, czy kiedykolwiek z takich zastosowań będziemy chcieli na tyle szeroko korzystać, aby uzasadnić nakłady poniesione na rozwój.

Pieniądze są kluczowym czynnikiem napędzającym rozwój techniki. Mogą je wyasygnować na badania państwo i przemysł. Jakie są dziś w Ameryce relacje między nimi?

Państwo, czyli w USA instytucje federalne, takie jak National Science Foundation, Departament Energii czy Pentagon, jest dziś najważniejszym źródłem finansowania badań. Można powiedzieć, że kierunki rozwoju techniki w dużej mierze wytycza państwo. Czyni to na podstawie analiz i badań, w których uczestniczą zarówno przedstawiciele świata nauki, jak i biznesu. Przedsiębiorstwa z kolei inwestują głównie w badania o charakterze aplikacyjnym, o horyzoncie komercjalizacji nieprzekraczającym zazwyczaj pięciu lat.

Jak ten system przekłada się na funkcjonowanie takiej uczelni jak Penn State University, gdzie pan wykłada? Czy w pogoni za wielkimi pieniędzmi, jakie oferują na badania państwo i przemysł, nie zapomniał pan jeszcze o studentach?

Dotknął pan bardzo ciekawego aspektu funkcjonowania uczelni amerykańskich, który, jak mi się wydaje, często nie jest właściwie rozumiany w Polsce, nawet w środowiskach akademickich. To prawda, że amerykańskie uniwersytety, takie jak Penn State, są miejscami, gdzie koncentruje się wysiłek badawczy i rodzą najważniejsze technologie określające kierunki rozwoju cywilizacji technicznej. Wydawałoby się więc, że najlepsi uczeni powinni zajmować się wyłącznie badaniami. Tymczasem główną misją amerykańskiego uniwersytetu pozostaje dydaktyka, a najważniejszymi jej klientami i „produktami” jednocześnie są studenci. Bardzo dużą wagę przykłada się do ocen, jakie uzyskują profesorowie od swoich studentów – młody pracownik naukowo-dydaktyczny, który ma systematycznie niskie noty, nawet jeśli uzyskuje świetne wyniki naukowe, nie ma szansy na stałe zatrudnienie.

Po co w takim razie badania na uczelni?

Są niezbędne do zapewnienia wysokiego poziomu misji dydaktycznej uniwersytetu. Profesorowie, którzy mogą wzbogacić przekaz wiedzy informacjami z pierwszej ręki, uzyskanymi na podstawie własnych doświadczeń badawczych, są dużo bardziej przekonujący i skuteczni niż ci, którzy uczą jedynie w oparciu o podręcznik. Z punktu widzenia uniwersytetu najwyższa jakość badań nie jest celem samym w sobie, lecz służy jako magnes przyciągający najlepszych studentów i jest niezawodnym narzędziem do zapewnienia wysokiego poziomu i rangi uniwersytetu. W takim systemie jakość dydaktyki i pracy badawczej idą w parze.

To rzeczywiście system bardzo odległy od polskiej praktyki, a także od dominującego w Polsce wyobrażenia o amerykańskiej nauce. Wróćmy jednak do gorących tematów, nad jakimi pracuje się w laboratoriach elektronicznych.

Wspominałem, że dziś szczególnym zainteresowaniem cieszy się energetyka. Dlatego bardzo intensywnie rozwija się drugi, obok mikroelektroniki, oparty na krzemie przemysł ogniw fotowoltaicznych, czyli systemów służących zamianie światła słonecznego w elektryczność.

Inny gorący kierunek to poszukiwanie nowych materiałów, dzięki którym będziemy mogli pokonywać kolejne bariery stawiane przez naturę przy uzyskiwaniu coraz szybszych mikroprocesorów oraz pojemniejszych pamięci. Tu niezwykle obiecujące są badania nad materiałami – pochodnymi węgla, jak grafeny i nanorurki, które mają niezwykłe właściwości. Być może znajdą zastosowanie jako przełączniki w układach elektronicznych kolejnych generacji. Choć rewolucji nie będzie, to jednak postęp będzie trwał tak długo, jak długo będzie popyt na jego efekty.

Czy jest miejsce dla Polski w tym wyścigu?

Tylko kilka krajów na świecie może prowadzić prace badawcze na wielką skalę. Moim zdaniem na obecnym etapie rozwoju Polska powinna dobrze rozpoznać swój potencjał naukowy, określić priorytetowe potrzeby rozwojowe kraju i zdecydować się na rozwój specjalistycznych niszy, wokół których z czasem mógłby powstać rodzimy przemysł zaawansowanych technologii.
 

Czytaj także

W nowej POLITYCE

Zobacz pełny spis treści »

Poleć stronę

Zamknij
Facebook Twitter Google+ Wykop Poleć Skomentuj