Znanstveni modeli in digitalizacija


Four_antennas_ALMAPeter Lukan

Mirne vesti bi lahko rekli, da živimo v dobi cvetoče znanosti. Toliko raziskav in poskusov, kot se jih izvaja na svetu v zadnjih desetletjih, se jih do sedaj v zgodovini ni še nikoli. Vse od 19. stoletja, ko se z znanostjo ni več ukvarjal samo radovedni del plemstva in se je znanstvena dejavnost začela širiti med manj premožne ljudi oziroma so ti začeli vstopati vanjo, je znanost začela pridobivati status najpomembnejše vrste vednosti v očeh večine javnosti. Če bi napravili anketo in ljudi spraševali, zakaj zaupajo znanosti (mišljena je naravoslovno-tehnična znanost), bi se verjetno večina sklicevala na tehnološke dosežke in razlage naravnih pojavov. Seveda bi se našla tudi neka manjšina ljudi, ki znanosti ne zaupajo – njihova najverjetnejša utemeljitev bi bila, da je znanstvena dognanja mogoče manipulirati ljudem v škodo, kar se kdaj dejansko tudi počne (morda bi kot primer navedli Wikileaksovo razkritje korespondence med dvema klimatologoma v zvezi z modeliranjem globalnega segrevanja). Znanost zato zanje »ni rešitev«, saj jo konec koncev lahko prakticirajo tudi podjetni in brihtni skorumpirani ljudje.

Osebno menim, da imajo prav oboji. Osrednji namen tega teksta je vsaj nekoliko osvetliti, kako (naravoslovna) znanost pristopa k proučevanju pojavov, pri čemer se osredotočam na pojem modela, ki se mi zdi ključen za razumevanje dela znanstvenika, in posebej na učinek digitalizacije na znanstveno modeliranje. To seveda ni edini vidik znanstvene dejavnosti, temveč je njena najbolj teoretična plat, ki se mi zdi od vseh najslabše razumljena. S tem, da poskušam izpostaviti teoretično delovanje znanstvenikov (v nekem smislu to, kako znanost »misli«), želim med drugim nakazati tudi, kje in kako obstajajo možnosti zlorab že v samem teoretičnem delu. Korektiv temu so vedno drugi predstavniki neke znanstvene stroke, ki kritično vrednotijo teoretične ugotovitve posameznih kolegov. Zaradi možnih nesporazumov morda ne škodi, če mimogrede poudarim, da je moje mnenje o znanstvenikih in njihovem delu na splošno zelo pozitivno.

 

Kaj so znanstveni modeli?

Modeli v znanosti so do neke mere poenostavljene predstavitve dogajanja pri proučevanih pojavih, in sicer tako, da zaobjamejo bistvene vidike teh pojavov. Pri srednješolskem poučevanju prostega pada se na primer ob uvedbi matematičnih formul vedno pove, da pri takšnem opisu ne upoštevamo zračnega upora, poleg tega pa položaj telesa opisujemo samo z eno njegovo točko (običajno težiščem). Težko bi torej rekli, da srednješolska fizika opisuje, kako telesa na Zemlji dejansko padajo, ampak ponuja poenostavljen opis za »točkasta telesa v vakuumu«. V tem kontekstu obstaja tudi šala, zabavna v glavnem samo za naravoslovce, kako fizik najde rešitev, da bi pozdravil obolele kure nekega kmeta, vendar sam pove, da njegova rešitev velja samo za »točkaste kure v vakuumu«. Ob tem se lahko kdo zlohotno nasmeji, vendar je dejstvo, da ko na primer na zemljevidu iščemo svoj položaj, v okviru zemljevida dojemamo sebe kot točko na zemljevidu. To je pač zelo uporabna poenostavitev. Ravno tako v običajnih predstavah, torej »na prvo žogo«, vedno mislimo, da je zrak okrog nas prazen prostor, čeprav mogoče v naslednjem koraku izšolano povemo, da je prazen prostor v resnici vakuum in da ga okrog nas ni najti prav veliko. To pojmovanje je na intuitivni ravni prisotno ravno zato, ker do neke mere očitno drži, vprašanje je le, do katere. Ko zapiha burja, verjetno ne bomo več zagovarjali stališča, da je zrak prazen prostor.

Navedena primera, čeprav sta srednješolska, jasno kažeta na razkorak med znanstvenimi modeli in realnostjo. Pri opisu z modeli pogosto pridemo do vprašanj tipa: V katerih razmerah je približen opis zraka kot praznega prostora upravičen? V okviru znanosti je grob odgovor lahko, da model velja, dokler je zračni upor zanemarljiv. Natančnejši kvantitativen odgovor je, da z meritvami pokažemo, kolikšna so odstopanja od rezultatov, ki jih napoveduje model z zrakom kot praznim prostorom. To se številčno zapiše z napakami in v tem smislu govorimo o tem, da se napoved modela boljše ali slabše ujema z meritvami; morda se sploh ne ujema in o zraku v danem poskusu ne moremo govoriti kot o približno praznem prostoru.

Pri opisu dogajanja v modelih torej izpuščamo veliko elementov realnosti in se osredotočamo samo na tiste elemente, ki nas zanimajo oziroma se nam zdijo za opis dogajanja relevantni. Če opisujemo premikanje človeka po nekem igrišču, nas ne zanimata barva njegovih oči in njegova frizura (razen če je tako obupno velika, da vpliva na njegovo gibanje), ampak položaj, hitrost in pospešek njegovega težišča, njegova orientacija v prostoru, morda oblika terena. Stvari ali tudi bitja v modelih torej nastopajo shematsko oziroma idealizirano, in sicer v različnih modelih različno. Če na primer opisujemo gibanje vode v rečni strugi, nas ne zanima barva reke, če nas zanima njena sestava, je ravno barva pomemben podatek. Bistveno pri tem je, da posamezen model nikoli ne zaobjema vse realnosti v njeni danosti, kar morda menijo tisti, ki mislijo, da znanost lahko opiše vse, kar obstaja. Še en zelo znan primer idealnih entitet, ki nastopajo v modelu, je periodni sistem elementov. V njem so atomi elementov razporejeni glede na svoje lastnosti – urejeni so po naraščajočem številu protonov v jedru in razporejeni v skupine glede na število elektronov v najbolj zunanji lupini. V realnosti le redki elementi nastopajo kot posamezni atomi z vsemi svojimi elektroni (takšni so v glavnem t. i. žlahtni plini), vsi ostali elementi so vezani z drugimi atomi iste ali drugačne vrste v večatomne molekule ali kristalne mreže, znotraj katerih imajo že drugačne lastnosti. Periodni sistem je kljub temu zelo uporaben za razlago interakcij med atomi posameznih elementov.

Modeli so v splošnem lahko fizični (takšne so na primer makete atomske sestave molekul, ki se uporabljajo v šolah) ali abstraktni (sem spada kakršen koli matematičnosimbolni opis). Pri običajnem šolskem reševanju nalog gre v tem smislu za abstraktne modele. V sodobni znanosti imajo danes prevladujočo vlogo digitalni računalniški modeli, kjer gre za matematični opis, ki je potem predstavljen bodisi z grafi na simbolen način ali s slikami oziroma simulacijami na realističen način.

 

Domet znanstvenih modelov

Kakšen status vednosti imajo torej znanstveni modeli? Koliko nam v resnici povedo? Rekel bi, da je pojem modela eden osrednjih za razumevanje delovanja znanosti, ker v bistvu povzema status vednosti v znanosti. Po eni strani je model odraz tega, koliko je mogoče matematiko aplicirati na fizično realnost, po drugi strani pa tega, da realnosti nikoli ne moremo opisati na izčrpen način, saj imajo vsi modeli svoje omejeno območje veljavnosti. To zadnje se je v zgodovini izkazalo ničkolikokrat. Eden najslavnejših primerov je gotovo letenje. Ko sta brata Wright konec 19. stoletja delala poskuse z letali, je znanost precej enotno menila, da letenje s človeškimi artefakti krši naravne zakone. Ne meneč se preveč za naravne zakone, sta jih brata Wright uspešno prekršila in začela novo obdobje v človeški zgodovini. V današnji terminologiji bi lahko rekli, da je bil tedanji fizikalni model obnašanja neživih predmetov v zraku nezadosten in potreben dopolnitve (predvsem ni bil zadostno upoštevan učinek viskoznosti zraka). Dober model razlage letenja se je uveljavil šele precej kasneje s pomočjo poskusov v vetrovnikih in ta razlaga še danes ni prav dobro razširjena med naravoslovci, pri katerih bi morda pričakovali seznanjenost s tem modelom kot nekaj, kar pač pridobiš v času naravoslovno-tehničnega izobraževanja.

Drug zelo pomemben primer prekoračitve omejitev modela je zelo pomenljiv, saj ima celo metafizične razsežnosti. Newtonova fizika je vse od svojega nastanka konec 17. stoletja dajala številne dobre napovedi, pojasnila je gibanje planetov v osončju, njena teoretična zgradba se je v 18. stoletju čedalje bolj razvijala. Odličen matematik Pierre Simon de Laplace jo je na začetku 19. stoletja reformuliral v bolj prikladen matematični opis, ki se ga še danes predava na študiju fizike pod oznako analitična mehanika. Ob tem uspešnem teoretičnem podvigu je tudi zapisal, da bi bitje, ki bi poznalo trenutne položaje in hitrosti vseh delov vesolja, lahko izračunalo razvoj vesolja v prihodnosti za poljubni čas. To hipotetično inteligentno bitje je danes znano pod imenom Laplaceov demon in je simbolno poosebljenje pojmovanja znanstvenega determinizma. Ta se je v 19. stoletju razširil tudi na druga področja človeškega delovanja, na primer v družbene vede, ki so ravno tedaj začele resneje uporabljati statistične prijeme, odmevi pa so vidni tudi v umetnosti, in sicer v realizmu in še bolj naturalizmu, ki je posebej stavil na nekakšno »znanstvenost« umetniške odslikave brez olepševanj.

Kar velik del znanstvene skupnosti je resno jemal determinizem znanstvenih modelov, kar se je odražalo tudi v porastu družbene moči naravoslovja. Na omajanje prepričanja v determinizem znanstvenih napovedi je močno vplival razvoj moderne fizike, predvsem kvantne mehanike na začetku 20. stoletja. Ta je nedeterminiranost celo izrecno vnesla v teorijo, in sicer s Heisenbergovim načelom nedoločenosti, ki pravi, da nekemu delcu ne moremo hkrati izmeriti položaja in hitrosti (oziroma natančneje: gibalne količine, ki je produkt mase in hitrosti). Zaradi tega so se vnemale številne polemike med zastopniki kvantne mehanike in bolj konservativnim delom fizikov, med katerimi so bila tudi velika imena, kot na primer Max Planck in Albert Einstein, ki sta bila, ironično, začetnika teorije kvantov. Ta premik je pokazal vsaj to, da modeli klasične mehanike niso primerni za opise dogajanja v atomskem svetu.

Še bolj odločujoč udarec znanstvenemu determinizmu je bil zadan z razvojem teorije kaosa od 1960. let naprej, saj je ta pokazala, da modeli klasične mehanike v nekem smislu odpovedo že v makroskopskem svetu, in sicer v primeru, ko nimamo dovolj stabilnih pogojev. Natančneje rečeno je stvar v tem, da so ob določenih robnih pogojih (empiričnih podatkih, ki nastopajo na mejah območja računanja) modeli izjemno občutljivi na spremembe začetnih vhodnih podatkov – če so vhodni podatki le malo drugačni, dá model povsem drugačne napovedi. Prvič se je to pokazalo, ko so resno začeli študirati vremenske pojave z namenom napovedi oziroma ko je sploh postalo mogoče te napovedi izračunati za uporabo, kar se je zgodilo šele s pojavom računalnikov po drugi svetovni vojni. Ko se je Newtonovo mehaniko uporabljalo za računanje tirov planetov, večjih odstopanj od napovedi ni bilo videti, saj so planeti v osončju stabilen sistem. Tako ni naključje, da je bil pionir teorije kaosa ravno meteorolog, Edward N. Lorenz, ki je sicer preminil pred nekaj leti. Meteorološki modeli so danes najboljši pokazatelj tega, koliko lahko dejansko »vidimo v prihodnost« s pomočjo fizikalnih modelov.

Pri teoriji kaosa je postala očitna razlika med determinizmom modela in napovedjo, ki se tiče realnega stanja. Slednja je pogojena z natančnostjo meritev, ki je vedno končna, v nestabilnih pogojih pa postanejo izračuni povsem odvisni od majhnih sprememb v začetnih podatkih in torej kljub determinističnem računanju praktično neuporabni. V takšnem primeru uporabljeni model ni povsem primeren za napoved razvoja dogodkov v ozračju, vendar ker morda boljšega nimamo, se vsaj pri napovedi vremena zadovoljimo z manjšo zanesljivostjo napovedi za bližnjo prihodnost, srednjeročna napoved vremena pa postane v tem primeru zelo nezanesljiva. Razvoj teorije kaosa je pokazal, da modeli klasične mehanike že v makroskopskem svetu kdaj niso primerni za napoved razvoja dogodkov oziroma imajo izjemno omejen časovni domet, ker se razmere kaj hitro zapletejo. V tem smislu deterministični modeli klasične mehanike ne potrjujejo deterministične narave sveta, metafizični determinizem je tako rekoč prekoračitev domene modela. Za to splošno razširjeno napačno mnenje se je znanstvena skupnost dejansko opravičila. Leta 1986 je ameriški fizik Lighthill v imenu »praktikov mehanike« podal opravičilo obči izobraženi javnosti za zavajanje s strani predhodnikov glede determinizma v sistemih, ki ne zadoščajo Newtonovim zakonom.

Modeli so tako podvrženi možnostim sprememb, ki so lahko celo tako korenite, da zahtevajo artikulacijo proučevanega pojava znotraj povsem druge teorije. Tako je bilo z razvojem modela atoma na začetku 20. stoletja, za katerega je najprej veljal Rutherfordov model z majhnim pozitivnim jedrom in enakomerno razporejenimi negativnimi naboji okrog njega. Nekaj let kasneje je začel veljati Bohrov planetarni model atoma, pri katerem so negativni naboji krožili okrog pozitivnega jedra kot planeti okrog Sonca, pri čemer so lahko ob dovajanju energije preskočili z enega tira na drugega. Naposled je obveljal kvantnomehanski model atoma, v katerem so elektroni okrog jedra razporejeni po orbitalah različnih oblik, pri čemer so orbitale deli prostora, v katerih obstaja določena verjetnost (95 %), da pri poskusih tam najdemo elektron. Ta model atoma je v veljavi že slabih 90 let.

Znanost včasih tudi več časa še nima izdelanih modelov za določene pojave. Takšen primer je tako imenovana »hladna fuzija« (že ime je med znanstveniki kontroverzno). Fuzija, to je spajanje atomskih jeder, se običajno dogaja pri temperaturah več milijonov kelvinov, pri čemer se sprošča relativno veliko energije. V zadnjih nekaj desetletjih so v laboratoriju odkrili pojav, pri katerem se pri sobni temperaturi sprošča količina energije, ki naj bi bila primerljiva s tisto, sproščeno pri fuziji. Razlaga tega pojava se še išče, kar pomeni, da noben znanstveni model še ne opiše dogajanja kvantitativno zadovoljivo.

 

Znanstveni modeli kot glavni produkt znanosti

Nekako vzporedno z razvojem znanosti se je razvijala tudi zavest o omejenem dosegu znanstvenih modelov, ki poprej ni bila jasno izkristalizirana. Razširjeno je bilo pojmovanje, da znanost proučuje svet kot takšen, in sicer precej neposredno. Refleksija pojma znanstvenega modela, ki je pravzaprav nekakšen posrednik med teorijo in stvarnostjo, se je uveljavila šele v 1970. letih, ko so se razvile tako imenovane semantične teorije znanosti, ki znanstveno dejavnost razumejo kot dejavnost postavljanja modelov. Poprej je filozofija znanosti znanstvene teorije razumela predvsem kot sklope oziroma sisteme logičnih trditev, torej takšnih, ki so lahko le resnične ali neresnične. Takšno pojmovanje se je razvilo pod vplivom t. i. jezikovnega obrata na začetku 20. stoletja in seveda pod daljnosežnim Aristotelovim vplivom klasične logike, ki je temeljno orodje znanstvene razlage. Slonelo je na predpostavki, da je jezik orodje odslikave sveta, kar je najjasneje formuliral Wittgenstein, a je tudi on kasneje svoj pogled spremenil.

Pri semantičnih teorijah znanosti je osrednje mesto pri znanstvenih teorijah prevzela dejavnost postavljanja modelov, jezik pa je postal nekoliko drugotnega pomena oziroma je v prvi vrsti vezan na model. Temeljni pojmi, s katerimi model operira, znotraj modela samega niso posebej razloženi, nastopajo le v določenih definicijah, ki pa ne povedo jasno, kateri pojem definira katerega. Pri drugem Newtonovem zakonu na primer (F = m × a), je težko reči, da masa definira silo ali pa obratno. Masa, čeprav nam je pojem intuitivno blizu, ni definirana v nobeni drugi enačbi klasične mehanike, poleg tega pa je ne moremo meriti neposredno, vedno merimo le silo, s katero masa deluje na tehtnico. Po drugi strani lahko pojem sile uvedemo s pomočjo sile na vzmet, vendar to ni vsebinsko enako pojmu, ki povzroča pospešeno premikanje inertnih teles. Tako sila kot masa ostajata znotraj klasične mehanike t. i. primitivna pojma brez stroge logične definicije, temveč ju je mogoče razumeti iz konteksta modelov. To ne velja za vse pojme v modelu – recimo pojma hitrosti in pospeška sta jasno definirana – temveč le za najbolj teoretične pojme modela. Takšna sta tudi pojma električnega in magnetnega polja v teoriji elektromagnetizma.

Znanstveni modeli so po eni strani naše orodje, po drugi pa del našega dojemanja sveta, zato niso povsem nevtralno objektivno sredstvo. Vanje je vključen širši konsenz znanstvene skupnosti glede tega, kako razumeti nekatere pojave, katere so osnovne entitete, ki pri tem nastopajo. Za električno in magnetno polje je na primer ob njuni uvedbi vladalo prepričanje, da sta v bistvu dve vrsti snovi, tako imenovani električni in magnetni fluid. Na takšno pojmovanje je napeljala izjemna podobnost enačb s tistimi, ki so se uporabljale v hidrodinamiki, torej za opisovanje tekočin. Nekoliko kasneje, ko je Maxwell pokazal, da sta oba pojma močno povezana v pojmu elektromagnetnega valovanja (primer katerega je tudi svetloba), se je uveljavilo prepričanje, da gre za valovanje etra, neskončno redke in po masi nezaznavne snovi. Tudi to pojmovanje je znanstvena skupnost na prelomu 20. stoletja zavrgla in obveljalo je prepričanje, da je elektromagnetno valovanje nesnovno, da torej nima snovnega sredstva, po katerem se širi. Pojma električnega in magnetnega polja sta s tem pridobila na substancialnosti. Znanstveni modeli kot osrednji elementi znanstvenih teorij so torej nosilci intersubjektivnega znanja in pojmovanja, ki je kdaj tudi presenetljivo odprto za interpretacije. Najbolj kričeč primer tega je interpretacija kvantne mehanike kot še nedorečen projekt, zaradi česar buri duhove in domišljijo tudi pri laični javnosti.

Posredniška vloga znanstvenih modelov je postala posebej očitna s pojavom sodobnih računalnikov, saj so postali močno popularni simulacije in realistični prikazi, ki poprej niso bili mogoči. Računalniški modeli namreč kombinirajo računsko natančnost in slikovno predstavljivost, ki je za ponazoritev rezultatov optimalna. Še v tem desetletju naj bi na primer s satelitom GAIA dovolj natančno izmerili položaje zadostnega števila zvezd v naši galaksiji (nekaj odstotkov vseh vidnih), da bo mogoče izračunati razvoj položajev zvezd v naši galaksiji za nazaj; končni rezultat za javnost bo slikovna simulacija razvoja naše galaksije, ki bo vsem jasno predstavljiva. To bo torej filmček, ki bo temeljil na vrhunsko natančnem računanju. Prednost digitalnih modelov je torej, da omogočajo močno kombinacijo računske in predstavne funkcije modelov. Še dva primera iz zadnjih let sta model dinamike zemeljskega magnetnega polja in model molekule ribonukleinske kisline, ki sta nastala na podlagi natančnih izračunov. Končni izdelek v prvem primeru je zaporedje slik silnic magnetnega polja Zemlje, ki se spreminjajo v času, v drugem pa prikaz zapletene strukture molekule z velikimi podrobnostmi.

 

Pomen računanja za znanost, razsežnosti računanja danes

Za znanost kot dejavnost postavljanja modelov je danes torej izjemnega pomena uporaba hitrih računalnikov. Računalnik nasploh je glavna naprava digitalne dobe, ki je povsem spremenila naša življenja in dojemanje sveta. V primeru znanstvenih modelov je pomembno prav računanje enačb, ki ga danes lahko izvajamo že na prenosnikih, za najbolj natančne izračune pa so potrebni superračunalniki. Da je hitrost računanja močno pospešila razvoj znanosti, lahko ponazori podatek, da je Kepler potreboval približno 5 let, da je iz opazovalnih podatkov izračunal svoje zakone gibanja planetov.

Računalnik kot naprava seveda temelji na manipulaciji elektrike in je v tem smislu tudi produkt razvoja teorije elektrodinamike in matematike. Drugače rečeno, je produkt medsebojne interakcije teorije in prakse, kar lahko trdimo za vse merilne instrumente v znanosti. Za moderno znanost je tipično, da so instrumenti postali del znanstvenega izkustva, kar velja vse od Galilejeve uporabe teleskopa za opazovanje nebesnih pojavov na začetku 17. stoletja. Od konca 19. stoletja naprej so ob obvladovanju elektrike ključne postale elektronske naprave, ker se je pokazalo, da lahko zagotovijo precej večjo natančnost meritve, zato so danes praktično vse profesionalne merilne naprave elektronske (z zelo redkimi izjemami, kot je na primer merilec vlage, ki kot indikator uporablja človeški las). Z razvojem računalnikov se je zgodil še ta preskok, da lahko meritve prenesemo direktno na računalnik in jih po potrebi že sproti preračunavamo ter celo z računalniškimi algoritmi odstranjujemo morebitne motnje iz okolice. Takšna merilna naprava, ki deluje z računalnikom, je na primer mikroskop na atomsko silo, ki nam sliko dejansko »preračuna« iz meritev in jo nato izriše na zaslonu.

Bistveni element v računalnikih, ki je omogočil manipulacijo elektrike za računanje, je dioda oziroma tranzistor, ki omogoča prepuščanje toka samo v eno smer, v drugo pa ga zavira. Ta elektronski element, ki je narejen iz polprevodniških materialov (najpogosteje silicija), so iznašli šele po koncu druge svetovne vojne, kar je odločilno vplivalo na nagel vzpon elektronskih računalnikov, vsi prejšnji računski stroji pa so bili analogni. Še med drugo svetovno vojno so na primer za izračune dogajanja pri atomski bombi v okviru projekta Manhattan najeli celo »vojsko« računarjev, ki so vrteli tako imenovane računske mlinčke. Računanje je bilo do tedaj mehanski postopek, ki ga je bilo treba rutinirano ponavljati, pri tem pa so dobili nepredvidljiv izid, kar je pomenilo, da je to dejansko bil pripomoček, ki je pospešil nek miselni proces. Z računalniki je to postal »elektronski postopek«, ki ga za nas po navodilih izvaja mnogo hitrejši procesor.

Danes imajo procesorji v računalnikih več deset milijonov tranzistorjev na kvadratni centimeter, kar omogoča nepredstavljivo hitro računanje. Kljub temu znanost vedno najde dovolj zapletene računske probleme, da se tudi na takšnih računalnikih računanje lahko izvaja precej časa. V teoriji kvarkov (to je delcev, ki sestavljajo protone in nevtrone) se mase osnovnih delcev iz razbranih poti pri trkih računa po več mesecev, pri poskusih na velikem hadronskem trkalniku v CERN-u pa se zaradi preobilice podatkov poslužujejo pristopa, da računanje iz merskih podatkov porazdelijo med superračunalnike na različnih koncih sveta, tako da imamo reko podatkov, ki se iz CERN-a zliva na vse kontinente z izjemo Antarktike. Hitrost računanja je bila sicer vedno pomembna tudi za videoigrice, ki si danes lahko privoščijo visoko ločljivost.

Morda ni nepomembna misel, da lahko o računanju še vedno razmišljamo kot o fizičnem procesu, kar se najbolj vidi po tem, da lahko sestava procesorjev vpliva na hitrost računanja. V Nemčiji imajo na nekaterih naravoslovnih inštitutih na primer računalnike, ki so specializirani za čim hitrejše računanje gravitacijskega privlaka delcev v zvezdah. Takšen računalnik »si vzame čas«, da po Newtonovi formuli za gravitacijo (F = Gm1m2/r2) računa gravitacijski privlak med vsakima dvema delcema v zvezdi. Ob takem številu delcev (v Soncu je recimo okrog 4,8 × 1056 delcev) si lahko mislimo, da računanje za eno zvezdo traja precej časa in da se vsaka optimizacija računanja pozna.

 

Razpetost modelov med uporabo in razlago

Znanstveni modeli nasploh so razpeti med svojo razlagalno in uporabno funkcijo. Med tema dvema vlogama nastopa določena napetost, saj pri razlagi težimo do neke mere k poenostavljanju, pri uporabnosti pa k čim večji natančnosti, kar običajno prinaša zapletenost. Tako se za nekatere modele jasno pokaže, da zaradi njihove natančnosti njihova razlagalna moč šibi. Dober primer tega je gravitacijski model Zemlje. V šolah se učimo, da je Zemlja po obliki geoid. Če bi ljudi spraševali, kaj to je, vam tega zelo verjetno skoraj nihče ne bi znal pojasniti, ker je definicija geoida matematična. Še huje, v osnovno obliko geoida je vključenih kar nekaj izmerjenih parametrov, ki imajo zvezo z lokalno ukrivljenostjo Zemljinega površja. Model geoida je v tem smislu natančen in uporaben, vendar samo ime geoid ne predstavlja nobenega geometrijskega telesa zase, ampak kar obliko, kot so jo namerili, da jo ima Zemlja, tako da lahko naposled tavtološko rečemo, da je geoid oblika Zemlje, medtem ko se v šoli reče, da je Zemlja geoid. Model geoida ni toliko pojasnjevalen, kot je uporaben.

Drug primer so modeli obnašanja plinov. V srednji šoli se učimo plinsko enačbo, ki velja za tako imenovane idealne pline. V praksi to pomeni, da velja dovolj dobro za vsak dovolj redek plin, recimo tako redek, kot je zrak. Ta model ne napoveduje prehoda plina v kapljevino (pogovorno: tekočino), če želimo to upoštevati, potrebujemo model realnega plina (oz. tako imenovanega van der Waalsovega plina), ki velja tudi za gostejše pline. Ta model ima dva vhodna empirična parametra več kot prej omenjeni in je tudi zato lahko bolje usklajen z meritvami za posamezni plin. Še boljša za uporabo plinov v praksi je t. i. virialna enačba, ki lahko sprejme še več vhodnih parametrov; te se izmeri za vsak plin posebej. V inženirskih vodah, kjer je potrebna natančnost, se uporablja samo ta pristop. V razlagalnem smislu zadnji primer precej razvodeni fizikalno razlago obnašanja plina, saj podatki, ki jih moramo za posamezni plin izmeriti, večinoma nimajo jasnega fizikalnega pomena, čeprav kvantitativno ustrezno pojasnijo obnašanje plina. Po drugi strani model z idealnim plinom nudi intuitivno dojemljivo razlago in je pedagoško zelo ustrezen, čeprav odpove v mnogih situacijah in velja le v omejenih pogojih. Znanstveni modeli so torej razpeti nekje na poti med razlago in uporabo. To sicer ni vedno nujno – če so idealni pogoji zagotovljeni v zadostni meri, potem so fizikalni opisi hkrati uporabni in razlagalni. Takšna je bila recimo Newtonova razlaga gibanja planetov z gravitacijo. Po svoje se ne gre čuditi, saj so planeti s heliocentrične perspektive res »točke v vakuumu«, nebo pa je v tem smislu idealen laboratorij z veliko mero pravilnosti. To je tudi razlog, da se je matematična znanost najprej začela razvijati skozi poznavanje neba.

Za modele torej želimo, da imajo neko trdno vsebino, lahko bi rekli trdno podlago v teoriji, kljub temu da se za potrebe uporabe premaknejo k večji količini empiričnih podatkov. Tako ima model geoida dobro podlago v teoriji gravitacije in je v tem smislu tudi teoretsko legitimen. Podobno velja za virialno enačbo plina, ki se je sčasoma razvila iz van der Waalsove. Naravoslovni modeli so na splošno vedno razpeti med teorijo in empirijo, res pa je, da imamo kdaj opravka s skoraj povsem empiričnimi modeli. Takšni matematični modeli v glavnem samo opisujejo, kako se nekatere količine pri opazovanem pojavu spreminjajo. Takšnih je večina modelov pri kemiji. Izrazit primer so modeli v kemijski kinetiki, ki opisuje hitrost kemijskih reakcij v odvisnosti od koncentracij reaktantov in produktov. V teh opisih (zaenkrat) ni nobene globlje teoretične razlage, zakaj pri nekaterih spojinah reakcije potekajo v takšni odvisnosti od koncentracije, pri drugih pa v drugačni, temveč gre bolj ali manj le za matematično prilagajanje izmerjenim podatkom.

Po drugi strani lahko empirični zakoni kdaj v prihodnosti dobijo ustrezno teoretično razlago. Primer tega je edini zakon v klasični fiziki, ki ga je formuliral Slovenec, in sicer Stefanov zakon za sevanje črnega telesa (j = σT4). Do njega je prišel na podlagi natančnih meritev, kasneje pa ga je teoretično pojasnil njegov nekdanji študent Ludwig Boltzmann, zato ga v tujini večkrat označujejo za Stefan-Boltzmannov zakon.

Kot smo že nakazali pri navezavi na znanstveni determinizem, je ena od pomembnih lastnosti modelov tudi njihova napovedna moč, kar je najbolj očitno pri meteorologiji. To je tudi ena ključnih lastnosti, glede na katero se modele vrednoti. Digitalni modeli so spremenili tudi znanstveno prakso, saj so postali posredniki med teorijo in eksperimentom. Bistvo posredniške vloge je ravno zmožnost hitrega računanja. Poprej se je izide meritev primerjalo neposredno z napovedmi teorije, treba je bilo zagotoviti čim bolj idealne pogoje, ker so tudi izračuni vsebovali številne idealizacije. Danes se te napovedi da izračunati veliko natančneje, vsebujejo pa tudi že več empiričnih podatkov, s čimer je omogočena primerjava z izidi poskusov v manj idealnih in lažje dosegljivih pogojih. Tako dobimo poleg eksperimentalnih rezultatov in teoretične napovedi še številčne rezultate modela, ki jih primerjamo z obojim. V tem smislu so eksperimentalni rezultati test za model, ta pa test za formulacijo teorije.

Modeli torej na nek način povzemajo status vednosti v znanosti, so plod metodičnega dela in predvsem interakcije pripadnikov znanstvene skupnosti. V tem smislu so to kolektivne simbolne tvorbe z racionalno (skoraj vedno matematično) podlago, ki so razpete med človekovo potrebo po razumevanju oziroma osmišljanju sveta in njegovo potrebo po manipulaciji narave za svoje preživetje. Kot takšni so ob svojem nastajanju praviloma manj zanesljivi in lažje podvrženi manipulacijam (ki so sicer izjeme), enkrat ko se ustalijo, pa obveljajo kot zanesljivi za daljša časovna obdobja in so precej nespremenljivi, čeprav načeloma zamenljivi z morebitnimi boljšimi v okviru kakšne nove teorije. Modeli, namenjeni poučevanju, so enostavnejši, splošnejši in razumljivejši, praktično uporabni modeli pa praviloma kompleksnejši in bolj specifični, zato je za njihovo razumevanje potrebno podrobnejše poznavanje nekega področja, saj so sami plod bolj poglobljenega poznavanja. V tem smislu je zato treba staviti na resnicoljubnost strokovnjakov, ki se na svoje področje spoznajo in v modele vnašajo ugotovitve, ki jih nekdo drug, tudi če obvlada matematiko in računske algoritme, ne bi pravilno upošteval. Modeli niso samo instrumenti, s katerimi človek dosega cilje, temveč imajo kot vsi resnični simboli tudi povraten učinek na človekovo dojemanje sveta, saj so močno razširjeni v družbi, v skrajnem primeru lahko vplivajo tudi na naše kolektivno razumevanje samih sebe kot fizičnih bitij.

 

Članek je bil objavljen v 13. številki revije Razpotja
Foto: Wiki

Dodaj komentar

Vaš e-naslov ne bo objavljen. * označuje zahtevana polja