Dumni z bycia Polakami - przeczytaj nowe wydanie Kwartalnika Coopernicus!
Artykuł - zdjęcie główne
Rola superkomputerów w chemii obliczeniowej, czyli poziom molekularny widziany przez pryzmat eksperymentów in silico

C:\Users\anetka\Desktop\Coopernicus\TOC.png

W codziennym życiu nieczęsto napotykamy wprost pojęcie „superkomputer”. Tymczasem te systemy obliczeniowe towarzyszą nam z ukrycia w wielu, nie zawsze oczywistych, czynnościach. Od sprawdzania prognozy pogody w smartfonowej aplikacji przez projektowanie nowych sylwetek samochodów po walkę z chorobami i tworzenie nowych leków – wszędzie tam wspomagają nas superkomputery. Znaczenie tego pojęcia (oraz stowarzyszonej z nim frazy „komputery dużej mocy”, ang. High Performance Computing – HPC) w swoich szczegółach zmieniało się przez lata, ale zawsze oznaczało takie komputery, które swoją mocą obliczeniową zdecydowanie przewyższają domowe komputery osobiste.

Jak mierzymy zdolności obliczeniowe komputerów klasy HPC? Podstawową jednostką jest możliwa do uzyskania liczba operacji zmiennoprzecinkowych na sekundę (czyli, w uproszczeniu, liczba mnożeń lub dodawań wartości rzeczywistych, niecałkowitych) określana angielskim skrótem „flops” (floatingpoint operations per second). Dopiero w latach 80 ubiegłego wieku procesory uzyskały możliwość łatwego wykonywania takich obliczeń – powszechnie zaczęto je wyposażać w jednostki arytmetyki zmiennoprzecinkowej. Od 1993 r. prowadzona jest lista TOP500 [1] – zestawienie pięciuset najszybszych superkomputerów świata. O ile w 1993 r. najszybszy naukowy superkomputer świata zainstalowany w Los Alamos (USA) osiągał 60 gigaflopsów, obecny rekordzista – maszyna Frontier z Oak Ridge National Laboratory (USA) – przekroczył oszałamiającą barierę 1018 flopsów i z wynikiem 1,2 eksaflopsów (1,2·1018 operacji na sekundę) jest prawie dwukrotnie szybszy od zdobywcy drugiego miejsca. Co ciekawe, pierwsze przebicie bariery eksaflopsowej oraz rekord szybkości nie należy do pojedynczego superkomputera, ale do rozproszonej sieci ochotników udzielających swych (nierzadko domowych) komputerów do wspólnego wysiłku badania tzw. składania/zwijania białek (projekt Folding@Home, obecnie osiągający 20 eksaflopsów [2]). Jest to jednak możliwe tylko dzięki specyfice tego zagadnienia badawczego i zazwyczaj nie da się uciec od wykorzystania pojedynczego superkomputera.

Podstawowe cechy czyniące z danej maszyny potencjalny superkomputer zmieniały się przez lata. Zawsze ważną rolę pełnią szybkie połączenia między procesorami (obecnie – między indywidualnymi węzłami obliczeniowymi), np. wspomniany rekordzista Frontier korzysta z dedykowanych kart sieciowych o przepustowości 100 GB/s [3], co warto porównać z prędkością domowego internetu rzędu kilkudziesięciu MB/s, albo nawet z formalną przepustowością karty sieciowej naszego komputera (obecnie zazwyczaj 1 GB/s). Rozważmy, co stało się z prędkością samego procesora? Początkowo trwał wyścig o jak najszybsze taktowanie zegara procesora – od początkowych pojedynczych megaherców z lat 80 ubiegłego wieku, aż do 2 – 3 GHz na początku obecnego stulecia… i tak właściwie zostało do dziś. Skąd zatem dalszy przyrost mocy obliczeniowej? Obecny wiek to rozwój procesorów wielordzeniowych, czyli przy tej samej częstotliwości taktowania zegara mamy w jednej obudowie już nie jedną, ale nawet 64 jednostki liczące. Znów wydaje się, że ta droga rozwoju obecnie przyhamowała, ale do gry włączyły się – nomen omen – ulubione przez graczy karty graficzne (ang. Graphical Processing Unit – GPU). Błyskawiczne wyliczanie kolorów tysięcy pikseli tworzących płynny obraz w grze wymaga wielu wyspecjalizowanych rdzeni obliczeniowych wykonujących pracę równolegle – bardzo podobnie jak czynią to algorytmy mnożenia macierzy albo szybkich transformat Fouriera, podstawowych metod numerycznych współczesnej nauki. W początkowych latach XXI w. opracowano standardy takiego programowania rdzeni graficznych, by wykonywały właśnie takie prace obliczeniowe. Większość mocy obliczeniowej dzisiejszych superkomputerów pochodzi właśnie z GPU. Dobrym przykładem jest najszybszy obecnie superkomputer w Europie – LUMI, umiejscowiony w fińskim Kajaani [4]. Jest to maszyna osiągająca 380 petaflopsów i mająca kilka ciekawych cech. Jest zasilana ekologicznie, z energii z elektrowni wodnej, a generowane w czasie pracy ciepło jest używane do ogrzewania komunalnego w Kajaani pokrywając jedną piątą zapotrzebowania tego miasta. Zresztą samo zapotrzebowanie na moc elektryczną współczesnej czołówki listy TOP500 (LUMI – 7 MW, Frontier – 22 MW) jest bliskie zużyciu energii przez miasto średniej wielkości. Podany za przykład komputer LUMI jest ciekawy z jeszcze jednego względu – został zbudowany w ramach współpracy dziesięciu krajów europejskich, w tym Polski, i jest udostępniany polskim naukowcom [5]. Na bieżącej liście TOP500 (za listopad 2023) obecne są cztery superkomputery z Polski: trzy z Akademickiego Centrum Komputerowego Cyfronet w Krakowie i jeden z Poznańskiego Centrum Superkomputerowo–Sieciowego. Ich wydajności sięgają kilku petaflopsów.

Na zakończenie tego omówienia architektury współczesnych superkomputerów warto zauważyć, jak kosztowne w budowie i utrzymaniu są te instalacje. W czołówce listy TOP500 znajdują się regularnie najsilniejsze gospodarczo (i naukowo) kraje świata (USA, Japonia, Chiny, europejskie konsorcjum HPC). A gdzie firmy prywatne? Każdy, kto korzysta ze współczesnych wyszukiwarek internetowych, niewątpliwie wiele razy dziwił się, jak wielka musi być moc obliczeniowa wykorzystywana do pracy takich wyszukiwarek, skoro zwracają wyniki wyszukań dowolnej frazy praktycznie natychmiast, w ciągu najwyżej kilku sekund. A jednak próżno szukać na liście TOP500 maszyn z Google czy Amazona. Dlaczego? Otóż obliczenia naukowe HPC i przeszukiwanie baz danych to dwie różne konkurencje, z zupełnie odmienną specyfiką, nieporównywalne w swoim działaniu. Próba ich porównania to jak próba stwierdzenia, który zawodnik jest lepszy – mistrz świata w biegu, czy w podnoszeniu ciężarów? Przecież to zupełnie różne dyscypliny sportowe, choć efektywne przeszukiwanie wielkich baz danych też korzysta z akceleracji GPU [6]. Pozostańmy zatem przy „naukowym” aspekcie HPC i zastanówmy się, jak konkretnie superkomputer wspomaga w pracy przede wszystkim chemika, który wykorzystuje do pracy badawczej narzędzia chemii obliczeniowej.

Początek XX w. przyniósł nam sformułowanie wczesnej teorii kwantów [7], która stała się punktem wyjścia dla współczesnej mechaniki kwantowej. W roku 1926 ukazała się publikacja naukowa autorstwa Erwina Schrödingera [8], w której Autor podał „równanie Schrödingera”. Jest to jedno z podstawowych równań nierelatywistycznej mechaniki kwantowej, które w sposób ścisły można rozwiązać tylko dla niewielu przypadków – jednym z nich jest atom wodoru [9]. Zastanówmy się zatem, w jaki sposób możemy opisać właściwości fizykochemiczne bardziej skomplikowanych obiektów: cząsteczek związków chemicznych, a nawet białek i kwasów nukleinowych? Możemy w tym celu rozwiązać równanie Schrödingera w sposób przybliżony i otrzymać opis układu oparty o prawa mechaniki kwantowej, bądź też zastosować metodę mechaniki molekularnej, która jest jednak metodą opartą na klasycznych prawach fizyki [10]. Obecnie metody te możemy ogólnie podzielić na metody statyczne: np. metoda Hartree’ego–Focka, metody półempiryczne, post–Hartree–Fock (metoda Møllera–Plesseta – MPn), czy też sprzężonych klasterów (ang. Coupled Clusters – CC) i Teoria Funkcjonału Gęstości (ang. Density Functional Theory – DFT) i dynamiczne (np. metody dynamiki molekularnej klasycznej, metody dynamiki ab initio, czy też metody hybrydowe – quantum mechanics/molecular mechanics (QM/MM)) [11–20]. Wybór odpowiednich narzędzi teoretycznych zależy od naszego celu badawczego oraz dostępnych zasobów obliczeniowych (klastry obliczeniowe/superkomputery). Warto zauważyć, że stosowalność wyżej wymienionych metod jest ściśle powiązana z rozwojem w dziedzinie szeroko pojętego HPC. Na początku XX w. nie posiadaliśmy komputerów, a zatem metody chemii teoretycznej, wymienione powyżej, musiały doczekać czasów, kiedy to dostępne moce obliczeniowe pozwalają na ich zastosowanie w eksperymentach in silico. Metody chemii/fizyki teoretycznej mają obecnie bardzo szerokie zastosowanie w różnych dziedzinach nauki. Warto wspomnieć chociażby o komputerowo wspomaganym projektowaniu leków (ang. ComputerAided Drug Design –CADD). Zgodnie z założeniami CADD możemy stosować różne dostępne narzędzia chemii obliczeniowej, w celu zaproponowania obiecującego kandydata do dalszych testów biologicznych [21]. A zatem możemy wykorzystywać modele statyczne i dynamiczne, w celu scharakteryzowania właściwości fizykochemicznych cząsteczek, czy też kompleksów: np. białko–ligand. Należy również wspomnieć o dostępnych narzędziach chemioinformatycznych, np. Molinspiration [22], SwissADME [23], które służą do przewidywania właściwości fizykochemicznych, czy też bioaktywności cząsteczek. Innym aspektem jest modelowanie ścieżek reakcji katalitycznych [24], czy też badanie oddziaływań cząsteczek na powierzchni metalu [25]. Są to tylko wybrane przykłady zastosowania metod chemii obliczeniowej. Dzięki metodom chemii/fizyki teoretycznej, a także rozwojowi HPC możemy opisać i zrozumieć wiele procesów na poziomie molekularnym. Możemy w ten sposób zaoszczędzić czas, a także środki finansowe, a przede wszystkim działać również w duchu tzw. zielonej chemii. Jest to istotne zwłaszcza, kiedy uświadomimy sobie, jak ważne jest chronienie środowiska naturalnego. Symulacje możemy wykonywać dla najprostszych modeli, czyli w fazie gazowej, ale również z uwzględnieniem rozpuszczalnika (najbardziej znane są tzw. ciągłe i dyskretne modele rozpuszczalnikowe, ale również możemy stosować tzw. modele hybrydowe [26, 27]), a także w fazie krystalicznej. Możemy również symulować przemiany fazowe i wiele innych zjawisk istotnych przy racjonalnym projektowaniu cząsteczek, czy też oddziaływań międzycząsteczkowych. Inną ważną gałęzią rozwoju ludzkości jest sztuczna inteligencja (ang. Artificial Intelligence – AI), która znalazła już różnorodne zastosowanie w wielu aspektach naszego życia i nadal będzie w nie wkraczać. Tyczy się to także pracy chemików, nawet w tak nietypowym aspekcie jak proponowanie dróg syntezy nowych związków chemicznych na podstawie dostępnej literatury przedmiotu [28]. Popatrzmy zatem na zagadnienie sztucznej inteligencji z punktu widzenia metod i technik obliczeniowych. W tym miejscu należy podkreślić coraz bardziej istotny wkład technik opartych na sztucznej inteligencji w rozwój nauk przyrodniczych. Wraz z rozwojem wysoce wyspecjalizowanych akceleratorów graficznych znacząco wzrosła efektywność przeprowadzanych operacji macierzowych, które stanowią podstawę działania sieci neuronowych (ang. Artificial Neural Networks – ANN). W fundamentalnej dla rozwoju tej dziedziny publikacji, udowodniono, że zastosowanie akceleratora graficznego Nvidia GeForce GTX 280 potrafi przyspieszyć obliczenia nawet 70 razy względem zastosowania dwurdzeniowego CPU o częstotliwości taktowania 3,16 GHz [29]. Od czasu przeprowadzenia tej demonstracji potęgi GPU pojawiły się nie tylko specjalizowane akceleratory GPU, ale też procesory dedykowane sieciom neuronowym, jak Tensor Processing Units od Google. Jednymi z najbardziej obiecujących kierunków zastosowań ANNs w kontekście chemii obliczeniowej oraz fizyki molekularnej są np. parametryzacja pól siłowych, jak i przewidywanie parametrów fizykochemicznych na podstawie deskryptorów geometrycznych oraz konstytucji chemicznej badanych układów chemicznych. Do podstawowych zalet tak otrzymanych potencjałów dla oddziaływań molekularnych należą: (i) relatywnie mała złożoność obliczeniowa oraz (ii) arbitralnie mały błąd w otrzymywanych energiach oddziaływania (a co za tym idzie: siłach działających na atomy) względem metod referencyjnych, które najczęściej stanowią metody sprzężonych klasterów. Charakterystyka w ten sposób otrzymanego opisu układu molekularnego w sposób bezpośredni wynika z natury ANNs oraz z minimalizacji wartości wybranej funkcji straty [30–32]. W ostatnich latach, w konsekwencji powstania nowego rodzaju architektury sieci neuronowych (model Transformera [33]), zainteresowanie metodami sztucznej inteligencji (w szczególności Wielkimi Modelami Językowymi (ang. Large Language Models – LLM), takimi jak ChatGPT [34] czy Claude [35]) wzrosło jeszcze bardziej. Wobec tak dynamicznie postępującego rozwoju architektur ANNs, czipów graficznych, jak również ułatwionego dostępu do dużych zbiorów danych trudno jest przewidzieć, co przyniesie przyszłość.

Na zakończenie tego artykułu chcielibyśmy podać przykład zastosowania superkomputerów w pracy badawczej nad modelowaniem miejsca wiążącego mimiku anhydrazy węglanowej IX [36]. W celu scharakteryzowania miejsca wiążącego zbudowano modele zawierające jeden z inhibitorów anhydrazy węglanowej IX – acetazolamid (AZM), a także wybrano aminokwasy, z którymi ligand łączy się w białku. Zauważono, że ważną rolę odgrywa obecność wiązania chalkogenowego („krewnego” bardziej znanych wiązań wodorowych, członka licznej rodziny oddziaływań niekowalencyjnych), gdyż stabilizuje ono konformację liganda.

C:\Users\anetka\Desktop\Coopernicus\protein_AZM_prezentacja.png

Rysunek 1. Mimik białka Anhydrazy IX z zaznaczonym ligandem AZM. Rysunek wykonano w programie VMD [37] w oparciu o dane PDB: kod 3DC3 [38].

Symulacje wykonano z zastosowaniem modeli statycznych – w oparciu o teorię DFT [17, 18] oraz metody post–Hartree–Focka (MP2 i CC) [13–16] a także dynamicznych – zastosowano dynamikę molekularną w schemacie Cara i Parrinello (ang. CarParrinello Molecular Dynamics –CPMD) [39], metodę całkowania po trajektoriach (ang. Path Integrals Molecular Dynamics –PIMD), która umożliwia uwzględnienie efektów kwantowych (np. tunelowanie protonu) w zachowaniu się jąder atomowych [40, 41] oraz metodę metadynamiki (ang. Metadynamics) [42] w celu przeszukania powierzchni swobodnej badanych układów i określenia głębokości minimów energetycznych. Analizowano nie tylko parametry geometryczne i energetyczne (dekompozycja energii w schematach Energy Decomposition Analysis (EDA) [43] i SymmetryAdapted Perturbation Theory (SAPT) [44]), ale również strukturę elektronową badanych kompleksów. W tym celu zastosowano teorię Atomów w Cząsteczkach (ang. Atoms In Molecules – AIM) [45] oraz indeks oddziaływań niekowalencyjnych (ang. NonCovalent Interactions index – NCI) [46]. W pracy analizowano również mapy potencjału elektrostatycznego, a także w energii oddziaływania uwzględniono błąd superpozycji bazy (ang. Basis Set Superposition Error – BSSE) [47]. Zastosowanie tak różnych metodologii i podejść obliczeniowych pozwoliło na bardzo szczegółowy opis natury oddziaływań i ewolucji badanych układów w czasie. Zauważono, że inhibitor anhydrazy węglanowej IX AZM zachowuje dość dużą swobodę konformacyjną, jako izolowana cząsteczka, natomiast w białku jego labilność spada, a konformacja jest stabilizowana poprzez sieć międzycząsteczkowych wiązań wodorowych i oddziaływania elektrostatyczne, a także wiązanie chalkogenowe (jak wspomniano powyżej). Wyzwaniem metodologicznym było zastosowanie metod dynamiki molekularnej ab initio do badania oddziaływań, które są słabsze niż konwencjonalne wiązania wodorowe. Okazało się to możliwe, przy odpowiednim doborze szczegółów metodologii. Opisane badania – w szczególności wszelkie schematy dynamiki molekularnej – wymagają znacznego nakładu czasu procesora i bez zastosowania najnowszych superkomputerów nie byłyby możliwe. Są one przykładem działania dwóch praw dotyczących przyspieszania obliczeń przez ich zrównoleglenie – prawa Amdahla oraz prawa Gustafsona [48]. Pierwsze ogranicza możliwość przyspieszenia obliczeń przez zrównoleglenie, bo zawsze zostaje jakiś (czasami całkiem spory) fragment kodu, który nie daje się w ten sposób przyspieszyć, i to on ogranicza praktyczny zysk ze zwiększenia liczby procesorów. Drugie prawo ma wydźwięk pozytywny: w ramach założonego z góry czasu, jaki chcemy poświęcić na badania, zrównoleglenie pozwala nam na rozwiązanie coraz bardziej złożonych problemów. Jeszcze na początku XX w. mogliśmy studiować dynamikę białek w skali kilkuset tysięcy atomów i setek nanosekund, obecnie można symulować wiele milionów atomów przez mikrosekundy. Jakie nowe możliwości i jakie wyzwania przyniesie przyszłość? Tego dowiemy się razem z Czytelnikami, obserwując ją i współtworząc.

Bibliografia

[1] https://top500.org

[2] https://stats.foldingathome.org/os

[3] https://www.olcf.ornl.gov/frontier/

[4] https://www.lumi-supercomputer.eu/lumi_supercomputer/

[5] https://guide.plgrid.pl/grants/lumi/

[6] https://research.google/pubs/searching-for-fast-models-on-datacenter-accelerators/

[7] ter Haar D. The Old Quantum Theory. Pergamon Press, 1967. ISBN 0-08-012101-2.

[8] Schrödinger E. Quantisierung als Eigenwertproblem I. Ann. Phys. 1926, 79, 361–376.

[9] Kołos, W. Chemia kwantowa, Wydawnictwo Naukowe PWN, 1978.

[10] Harvey, J. Chemia obliczeniowa, Wydawnictwo Naukowe PWN SA, 2019

[11] Piela, L. Idee chemii kwantowej, Wydawnictwo Naukowe PWN, 2003.

[12] Kołos, W; Sadlej, J. Atom i cząsteczka, Wydawnictwo Naukowo-Techniczne, 1998

[13] Møller, C.; Plesset, M.S. Note on an Approximation Treatment for Many-Electron Systems. Phys. Rev. 1934, 46, 618-622.

[14] Coester, F. Bound states of a many-particle system. Nucl. Phys. 1958, 7, 421-424.

[15] Čižek, J. Calculation of wavefunction components in ursell-type expansion using quantum field theoretical methods. Chem. Phys. 1996, 45, 4256.

[16] Čižek, J.; Paldus, J. Correlation problems in atomic and molecular systems III. Rederivation of the coupled-pair many-electron theory using the traditional quantum chemical methodst. Inter. J. Quantum. Chem. 1971, 5, 539.

[17] Hohenberg, P.; Kohn, W. Inhomogeneous electron gas. Phys. Rev. 1964, 136, B864-B871.

[18] Kohn, W.; Sham, L.J. Self-consistent equations including exchange and correlation effects. Phys. Rev. 1965, 140, A1133-A1138.

[19] Santamaria, R. Molecular dynamics. Springer, 2023.

[20] Warshel A., Levitt M. Theoretical studies of enzymic reactions: Dielectric, electrostatic and steric stabilization of the carbonium ion in the reaction of lysozyme. J. Mol. Biol. 1976, 103, 227-249.

[21] Bukhsh Singh, D. Ed. Computer-Aided Drug Design. Springer Nature Singapore, 2020.

[22] https://www.molinspiration.com/

[23] Daina, A.; Michielin, O.;Zoete, V. SwissADME: a free web tool to evaluate pharmacokinetics, druglikeness and medicinal chemistry friendliness of small molecules. Sci. Rep. 2017, 7, 42717.

[24] Salciccioli, M.; Stamatakis, M.; Caratzoulas, S.; Vlachos, D.G. A review of multiscale modeling of metal-catalyzed reactions: Mechanism development for complexity and emergent behavior. Chem. Eng. Sci. 2011, 66, 4319-4355.

[25] Golibrzuch, K.;Bartels, N. Auerbach, D.J.; Wodtke, A.M. The Dynamics of Molecular Interactions and Chemical Reactions at Metal Surfaces: Testing the Foundations of Theory. Annu. Rev. Phys. Chem. 2015, 66, 399-425.

[26] Kongsted, J.; Mennucci, B. How to Model Solvent Effects on Molecular Properties Using Quantum Chemistry? Insights from Polarizable Discrete or Continuum Solvation Models. J. Phys. Chem. A 2007, 111, 39, 9890-9900.

[27] Pliego, Jr., J.R.; Riveros, J.M. Hybrid discrete-continuum solvation methods. WIREs Comput. Mol. Sci. 2020,10, e1440.

[28] https://www.elsevier.com/solutions/reaxys/predictive-retrosynthesis/

[29] Raina, R.; Madhavan, A.; Ng. A.Y. Large-scale deep unsupervised learning using graphics processors. In Proceedings of the 26th Annual International Conference on Machine Learning (ICML ’09). Association for Computing Machinery, New York, NY, USA, 2009, 873–880.

[30] Käser, S.; Vazquez-Salazar, L.I.; Meuwly, M.; Töpfer, K. Neural network potentials for chemistry: concepts, applications and prospects. Digit. Discov. 2023, 2, 28-58.

[31] Kulichenko, M.; Smith, J.S.; Nebgen, B.; Li, Y.W.; Fedik, N.; Boldyrev, A.I.; Lubbers, N.; Barros, K.; Tretiak, S. The Rise of Neural Networks for Materials and Chemical Dynamics. J. Phys. Chem. Lett. 2021 12 (26), 6227-6243.

[32] Gasteiger, J.; Zupan, J. Neural Networks in Chemistry. Angew. Chem. Int. Ed. Engl. 1993, 32, 503-527.

[33] Vaswani, A.; Shazeer, N.; Parmar, N.; Uszkoreit, J.; Jones, L.; Gomez, A.N.; Kaiser, Ł.; Polosukhin, I. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems (NIPS’17). Curran Associates Inc., Red Hook, NY, USA, 2017, 6000–6010.

[34] https://chatgpt.com

[35] https://claude.ai

[36] Wojtkowiak, K., Michalczyk, M., Zierkiewicz, W.; Jezierska, A.; Panek, J.J. Int. J. Mol. Sci. 2022, 23, 13701.

[37] Humphrey, W.; Dalke, A.; Schulten, K. VMD: Visual molecular dynamics. J. Mol. Graph. 1996, 14, 33-38.

[38] Genis, C.; Sippel, K.H.; Case, N.; Cao, W.; Avvaru, B.S.; Tartaglia, L.J.; Govindasamy, L.; Tu, C.; Agbandje-McKenna, M.; Silverman, D.N.; Rosser, C.J.; McKenna, R. Design of a carbonic anhydrase IX active-site mimic to screen inhibitors for possible anticancer properties. Biochemistry 2009, 48, 1322-1331.

[39] Car, R.; Parrinello, M. Unified Approach for Molecular Dynamics and Density-Functional Theory. Phys. Rev. Lett. 1985, 55, 2471–2474.

[40] Tuckerman, M.E.; Marx, D.; Klein, M.L.; Parrinello, M. Efficient and general algorithms for path integral Car-Parrinello molecular dynamics. J. Chem. Phys. 1996, 104, 5579–5588.

[41] Feynman, R.P. Space-Time Approach to Non-Relativistic Quantum Mechanics. Rev. Mod. Phys. 1948, 20, 367–387.

[42] Laio, A.; Parrinello, M. Escaping free-energy minima. Proc. Natl. Acad. Sci. USA 2002, 99, 12562–12566.

[43] Kitaura, K.; Morokuma, K. A new energy decomposition scheme for molecular interactions within the Hartree-Fock approximation. Int. J. Quantum Chem. 1976, 10, 325–340.

[44] Jeziorski, B.; Moszynski, R.; Szalewicz, K. Perturbation Theory Approach to Intermolecular Potential Energy Surfaces of van der Waals Complexes. Chem. Rev. 1994, 94, 1887–1930.

[45] Bader, R. Atoms in Molecules: A Quantum Theory; International Series of Monographs on Chemistry; Clarendon Press: Oxford, UK, 1994.

[46] Johnson, E.R.; Keinan, S.; Mori-Sánchez, P.; Contreras-García, J.; Cohen, A.J.; Yang, W. Revealing Noncovalent Interactions. J. Am. Chem. Soc. 2010, 132, 6498–6506.

[47] Boys, S.; Bernardi, F. The calculation of small molecular interactions by the differences of separate total energies. Some procedures with reduced errors. Mol. Phys. 1970, 19, 553–566.

[48] Gustafson, J. Reevaluating Amdahl’s Law. Commun. ACM, 1988, 31, 532–533.

Kamil Wojtkowiak
Karol Kułacz
Jarosław J. Panek
Aneta Jezierska
Dodaj komentarz