Cząsteczki na zamówienie

Laboratorium chemiczne kojarzy się większości ludzi z probówkami, palnikami i dziwnymi bulgoczącymi cieczami. Tymczasem uzyskiwanie nowych związków o pożądanych właściwościach może być wspomagane przez fizykę i chemię teoretyczną, wykorzystującą komputery jako niezbędne narzędzia badawcze. W ciągu ostatnich lat podstawowym, wręcz niezbędnym wyposażeniem większości laboratoriów stał się komputer. Służy głównie do sterowania aparaturą pomiarową i obróbki […]

Laboratorium chemiczne kojarzy się większości ludzi z probówkami, palnikami i dziwnymi bulgoczącymi cieczami. Tymczasem uzyskiwanie nowych związków o pożądanych właściwościach może być wspomagane przez fizykę i chemię teoretyczną, wykorzystującą komputery jako niezbędne narzędzia badawcze.

W ciągu ostatnich lat podstawowym, wręcz niezbędnym wyposażeniem większości laboratoriów stał się komputer. Służy głównie do sterowania aparaturą pomiarową i obróbki danych. Szczególną rolę odgrywa on w poszukiwaniu nowych, złożonych związków chemicznych (np. leków) i badaniu ich właściwości.

Jak wygląda cząsteczka?

Jednym z głównych problemów pojawiających się w trakcie takich badań jest określenie właściwości przestrzennej budowy badanego związku. Np. cząsteczki o identycznym składzie chemicznym mogą występować w wielu formach – tzw. izomerach. Szczególną grupę stanowią izomery optyczne – związki będące swoimi lustrzanymi odbiciami. Mają one zwykle identyczne właściwości fizykochomiczne, jak np. temperatury wrzenia i topnienia, i często nie można ich rozróżnić przy zastosowaniu większości klasycznych metod analitycznych. Pomimo to bardzo drobne różnice między związkami sprawiają, że w inny sposób oddziałują one na organizmy: jedne formy służą jako leki, inne są obojętne lub wręcz szkodliwe. Np. izomer optyczny talidomidu, popularnego w latach 70. leku antydepresyjnego, wywołuję m.in. deformacje płodu. Domieszka niewykrytego izomeru w leku spowodowała falę narodzin kalekich dzieci. Konieczna jest więc dokładna znajomość kształtu cząsteczek, bo on w dużym stopniu decyduje o ich właściwościach. Problem w tym, że średnie i duże cząsteczki mogą tworzy wiele izomerów.

Zaprojektowany inhibitor umieszczony we wnęce wiążącej enzymu. Kolory czerwony i niebieski obrazują ładunki elektrostatyczne na powierzchni białka.

Do określenia trójwymiarowej struktury związku stosuje się skomplikowane techniki obliczeniowe, niezbędne staje się więc użycie maszyn liczących. Korzyści płynące z użycia komputerów w badaniach chemicznych odkryto bardzo szybko. Już w 1949 roku, a więc zaledwie 6 lat po premierze słynnego ENIAC-a, w laboratorium w Cambridge powstał EDSAC, który miał służyć m.in. do przeprowadzania złożonych obliczeń fizycznych i chemicznych. Wśród osób opracowujących odpowiednie pogramy dla EDSAC-a byli późniejsi nobliści: John Kendrew i Maurice Wilkins.

Dokładnie czy szybko?

Prawa mechaniki kwantowej – w szczególności równanie Schrödingera – teoretycznie pozwalają określić strukturę oraz właściwości cząsteczek jedynie na podstawie liczby i rodzaju tworzących ją jąder atomowych i elektronów oraz uniwersalnych stałych fizycznych (tzw. metody ab inito ). Jedne z pierwszych komputerowych obliczeń, dla jonu H

2

+, przeprowadzili w latach 60. w Chicago polscy profesorowie: Włodzimierz Kołos i Lutosław Wolniewicz. Ich prace okazały się dokładniejsze od wyników doświadczalnych, otrzymanych metodami spektroskopii molekularnej przez laureata Nagrody Nobla Herzberga. Problem w tym, że zaawansowane, dokładne metody ab inito wymagają wielu skomplikowanych obliczeń – ich ilość rośnie wraz z rozmiarami cząsteczki proporcjonalnie do czwartej lub nawet ósmej potęgi jej wielkości (ilości atomów i ich rodzaju). Oznacza to w praktyce, że najlepsze współczesne superkomputery czy duże sieci stacji roboczych radzą sobie z takimi obliczeniami dla cząstek złożonych z co najwyżej niewiele ponad stu atomów – dla większych nie da się ich wykonać w rozsądnym czasie nawet na najpotężniejszych dzisiejszych maszynach liczących. Najdokładniejsze badania, których wyniki precyzją przewyższają te uzyskane przez praktyczne doświadczenia, możliwe są dla związków składających się zaledwie z ok. 10 atomów. Centrum superkomputerowe Politechniki Wrocławskiej przez miesiąc liczyło kształt pięcioatomowej cząsteczki. Tymczasem w chemii organicznej mamy obecnie z reguły do czynienia z układami liczącymi nawet kilkadziesiąt tysięcy atomów, jak choćby duże białka i ich kompleksy.

Chemicy omijają ten problem, stosując do określania budowy większych molekuł głównie tzw. metody półempiryczne, w których część parametrów do obliczeń otrzymuje się doświadczalnie. Pierwsze z nich powstały już w latach pięćdziesiątych, co w dużej mierze było zasługą matematyka Johna Pople, który za ich opracowanie otrzymał w 1998 roku Nagrodę Nobla w dziedzinie chemii. Techniki te umożliwiają przeprowadzanie dość dokładnych obliczeń dla dość skomplikowanych układów, złożonych z kilkuset cząsteczek, jak np. fragmenty kwasów nukleinowych.

Tu na scenę wkracza również drugi noblista z 1998 roku, Walter Kohn – autor tzw. teorii funkcjonału gęstości. Na jej podstawie powstała jedna z najprecyzyjniejszych metod półempirycznych. Pozwala ona rozwiązywać m. in. takie problemy, jak określanie stabilności cząstki czy przewidywanie niektórych jej cech spektroskopowych.

Można prościej!

W latach 70. przyjęto nowe podejście do przedstawionych wcześniej problemów – oddziaływania w cząsteczkach opisuje się za pomocą prostych równań mechanicznych, koncentrując się na jak najdokładniejszym odzwierciedleniu ich właściwości i budowy. Umożliwia to tworzenie nowych algorytmów opisujących oddziaływania pomiędzy atomami i całymi cząsteczkami, znacznie prostszych niż te otrzymywane dzięki metodom kwantowo-mechanicznym czy półempirycznym. Także ilość niezbędnych obliczeń jest tu znacznie mniejsza, przez co czas pracy nad problemem skraca się wielokrotnie (np. z paru dni do kilku godzin). Dzięki wykorzystaniu tzw. mechaniki molekularnej i przy użyciu nowoczesnych komputerów powstają symulacje wyglądu i zachowania rzeczywistych, dużych cząstek. Pozwalają one m.in. na znalezienie najtrwalszej formy danej cząsteczki oraz przewidywanie jej zachowania w określonych warunkach (np. temperaturowych).

Struktura krystaliczna jednego z białek enzymatycznych, zawierającego kilka tysięcy atomów. Określenie jego budowy przestrzennej i właściwości metodami ab inito (kwantowomechanicznymi) jest jeszcze niemożliwe.

Modelowanie molekularne to nie tylko komputerowy, łatwy do manipulowania obraz graficzny. Chemicy od dawna tworzyli takie modele z metalu, a później plastiku, aby ułatwić sobie wyobrażenie struktury przestrzennej cząsteczek. Metalowy był na przykład pierwszy model DNA, zbudowany przez J. Watsona i F. Cricka w 1951 roku. Obecnie tworzy się je przy użyciu odpowiednich programów komputerowych. Poprzez manipulowanie obrazem, także w trybie stereo, możliwe jest znacznie lepsze uchwycenie specyficznych cech budowy przestrzennej cząsteczek. Modelowanie molekularne to także umiejętność opisywania sił działających na poszczególne elementy takiego modelu (np. na jądra atomowe) w ich zadanym, przestrzennym ustawieniu. Umożliwia to na przykład ocenę możliwości przyłączenia się jednej cząsteczki do drugiej i trwałości takiego kompleksu.

Za stworzenie komputerowego programu do symulowania reakcji enzymatycznych interdyscyplinarny zespół z warszawskiego ICM pod kierunkiem profesorów Marka Niezgódki i Bogdana Lesynga w 1995 roku dostał nagrodę Computerworld Smithsonian Institute.

Dzięki odpowiednim programom można oglądać wybrane fragmenty molekuł, obserwować zmiany ich kształtu wywołane oddziaływaniem z innymi cząstkami oraz ich przestrzenne ułożenie w tworzonych przez nie kompleksach. Możliwe jest także badanie efektów modyfikacji struktury cząsteczki, projektowanie całkowicie nowych związków (głównie białek), modelowanie reakcji chemicznych oraz biochemicznych itp.

Lekarstwa z komputera

Techniki te są szczególnie przydatne w medycynie do poszukiwania nowych leków. Służą m.in. do projektowania inhibitorów – związków hamujących nadmierną aktywność enzymów. Tradycyjne metody ich poszukiwania były bardzo żmudne. Badano pod tym kątem zsyntetyzowane lub wyizolowane z roślin związki chemiczne. Najskuteczniejsze z nich modyfikowano w celu polepszenia ich właściwości i ponownie sprawdzano. Takie metody prób i błędów były bardzo czasochłonne i nie zawsze skuteczne. Średnio na 15 tysięcy przebadanych związków jeden okazywał się właściwy. Dla przyśpieszenia pracy próbowano przewidywać strukturę inhibitora, opierając się na wiedzy o mechanizmie reakcji i budowie enzymu. Ogromnym przełomem w tej dziedzinie było wykorzystanie do projektowania inhibitorów znanych struktur krystalicznych białek i innych związków. Po doświadczalnym otrzymaniu takiej struktury (dla formy natywnej oraz w kompleksach z innymi związkami) umieszcza się ją w bazach danych. W trakcie badań, np. nad nowymi lekami, za pomocą programów do modelowania molekularnego można dokonać wizualizacji badanej cząsteczki i przeanalizować jej trójwymiarową strukturę. Często w ten sposób znajduje się dodatkowe miejsca wiązania inhibitora do enzymu. Następnie przeszukuje się bazy zawierające struktury trójwymiarowe cząsteczek już poznanych związków chemicznych i sprawdza się ich zdolności do wiązania się z badanym białkiem. W ten sposób można znaleźć nowe inhibitory. Inny sposób to taka modyfikacja struktury już istniejących substancji, aby otrzymać wcześniej nieznane, silnie wiążące się z enzymem związki, tą techniką można jednak uzyskać substancje, których nie da się zsyntetyzować. Z otrzymanych inhibitorów wybiera się te, które powinny wykazywać największą aktywność. Dopiero na końcu syntetyzuje się poszukiwane substancje i bada ich rzeczywiste oddziaływanie na enzym. Użycie do takich badań komputera zmniejsza 3-4-krotnie czas potrzebny do wyselekcjonowania szukanych związków.

W podobny sposób otrzymuje się nowe interkalatory, czyli cząsteczki wiążące się z DNA, wykorzystywane do badań nad genami oraz jako leki. Większość programów do projektowania molekularnego ma zaimplementowane dodatkowe algorytmy do teoretycznego przewidywania aktywności otrzymanych cząstek. Ułatwia to wybranie najskuteczniejszych spośród nich. Odpowiednie procedury pozwalają także zaprojektować białko o żądanym kształcie – nie zawsze jednak udaje się je zsyntetyzować. Dzięki modelom komputerowym można także obserwować, w jaki sposób mutacje w genie wpływają na kształty białek – pozwala to poznać podłoże wielu chorób, np. nowotworów.

Nie tylko superkomputery

Uzyskanie dobrych efektów wymaga specjalistycznego oprogramowania. Znane struktury krystaliczne białek, peptydów i innych cząsteczek są dostępne publicznie – np. w bazie Protein Data Bank. Do modelowania i projektowania molekularnego używa się m.in. pakietów oprogramowania: MSI., TRIPOS i AVS. Istnieją też znacznie prostsze aplikacje, dostępne dla posiadaczy przeciętnego komputera klasy PC, jak np. niektóre wersje HyperChem.

Opracowanie różnorodnych technik obliczeniowych oraz programów do modelowania molekularnego dało naukowcom możliwość rozwiązania wielu problemów współczesnej chemii. Obecnie badania prowadzone także we Wrocławiu koncentrują się głównie na poszukiwaniu leków przeciwnowotworowych (np. przeciw białaczkom), antydepresyjnych, antyalergicznych i przeciwbólowych, poszukiwaniu nowych antybiotyków i substancji wiążących się z DNA (wykorzystywanych m.in. w leczeniu chorób genetycznych) oraz wyjaśnianiu mechanizmów działania hormonów. Już od dekady dostępne są lekarstwa opracowane metodami komputerowymi, a czas, jaki upływa od pomysłu do wprowadzenia specyfiku na rynek, skrócił się z 20 lat o połowę. Techniki te służą także m.in. do poszukiwania nowych środków ochrony roślin na potrzeby rolnictwa.

Program Gaussian

Projekt zainicjowany w 1970 roku przez grupę naukowców, m.in. chemików i informatyków, kierowanych przez Johna Pople’a. Zajmują się oni głównie udoskonalaniem istniejących i opracowywaniem nowych metod obliczeniowych, mających umożliwić precyzyjne określanie budowy i właściwości dużych układów cząstek.

Historia – Kalendarium

1848

– Ludwik Pasteur odkrył istnienie izomerów optycznych.

1858

– Friedrich Kekule odgadł (prawidłowo) strukturę cząsteczki benzenu na podstawie jego wzoru sumarycznego i właściwości chemicznych.

1931

– Erich Hückel opracował pierwszą półempiryczną metodę obliczeniową, pozwalającą wyliczyć energię przejść elektronowych dla prostych cząsteczek, takich jak benzen czy etylen.

1949

– w laboratorium w Cambridge rozpoczyna pracę EDSAC – jeden z pierwszych komputerów z elektroniczną pamięcią programu. W ciągu kilku następnych lat przygotowano dla niego m.in. programy do opracowywania danych rentgenograficznych. Jednym z ich twórców był John Kendrew – laureat Nagrody Nobla z 1962 roku za opis trójwymiarowej struktury mioglobiny i hemoglobiny.

Lata 50.

– intensywny rozwój metod obliczeniowych; pierwsze obliczenia dla najmniejszych cząstek oparte na zasadach mechaniki kwantowej.

Lata 60.

– w Norwegii powstał specjalny język programowania wykorzystywany do symulacji złożonych procesów chemicznych, fizycznych i mechanicznych – Simula.

Lata 70.

– początki modelowania molekularnego. Pierwsze służące do tego programy (MM1, MM2 i MM2P) opracował Norman Allinger.

Info
Grupa dyskusyjna
Uwagi i komentarze do artykułu:
#
Internet
Protein Data Bank na ICM:http://pdb.icm.edu.pl/
Molecular Simulation Inc.:http://www.msi.com/
Na CHIP-CD w dziale Magazyn | Modelowanie związków organicznych znajduje się artykuł o modelowaniu cząsteczek.
0
Zamknij

Choć staramy się je ograniczać, wykorzystujemy mechanizmy takie jak ciasteczka, które pozwalają naszym partnerom na śledzenie Twojego zachowania w sieci. Dowiedz się więcej.