Robert, czyli jak może skończyć się amerykański sen

Ten post będzie nawiązywał trochę do mojej poprzedniej notki, dotyczącej m.in. kłopotów cywilizacyjnych, ale tym razem zdecydowałem się skupić na chyba jednym z najbardziej istotnych problemów, jakim może być zbliżający się brak tanich źródeł energii. O tym, jak jest to istotne we współczesnym świecie, nie należy chyba nikogo przekonywać, choć ludzie często odsuwają ten problem od siebie myśląc, że nastąpi on w bliżej nieokreślonej przyszłości, lub sądząc, iż nauka jest obecnie w stanie pokonać każdy problem techniczny, w tym problem dotyczący braku łatwo dostępnej energii. O tym, że kwestia ta może być istotna już za parę lat, świadczyć może chociażby raport autorstwa Roberta L. Hirscha (zob. http://en.wikipedia.org/wiki/Robert_Hirsch_(energy_advisor) ) , sam zaś raport omawiany jest pod http://en.wikipedia.org/wiki/Hirsch_report , całość można znaleźć pod http://www.netl.doe.gov/publications/others/pdf/Oil_Peaking_NETL.pdf ), dotyczący zjawiska, które przemysł naftowy nazywa PeakOil , o którym zresztą pisałem w poprzedniej notce, a które z grubsza można objaśnić następująco (cytuję za http://pl.wikipedia.org/wiki/Peak_Oil )
„Teoria Hubberta, znana też jako peak oil (dosł. “szczyt wydobycia ropy naftowej”), dotyczy długoterminowego tempa wydobycia i wyczerpania złóż ropy naftowej oraz innych paliw kopalnych. Teoria nazwana została nazwiskiem amerykańskiego geofizyka Mariona Kinga Hubberta, który sporządził model rezerw paliw i w roku 1956 zaprezentował go na spotkaniu Amerykańskiego Instytutu Naftowego. Model przewidywał szczyt wydobycia ropy w Stanach Zjednoczonych na lata między 1965 a 1970, oraz głosił, że produkcja światowa osiągnie szczyt w roku 2000.”
Jak wiemy, zjawisko to nie jest jeszcze widoczne wyraźnie, ale sądząc po raporcie Hirscha, można się go spodziewać już wkrótce. Rzecz jest jednak nie tylko w tym, że problem może nastąpić później niż za 10 czy nawet 15 lat (w co wątpię, gdyż prognozy przytoczone w omawianym raporcie w większości przytaczają horyzont 10-15-letni), ale i w tym, że zjawisko to jednak dotknie ludzkość, i to jeszcze za życia większości z nas. Oznacza to w praktyce, że obojętne – czy odkryte zostaną jeszcze jakieś nowe źródła paliw (w tym źródła ropy naftowej, o czym pisałem w poprzedniej notce), to oczywiste, że wkrótce problem ten stanie się dość istotny. Poza tym, tak jak to już pisałem, wykorzystanie źródeł odnawialnych też w pełni nie będzie w stanie zaspokoić obecnego zapotrzebowania na energię. Myślę, że w tym miejscu dobrze by przytoczyć niektóre wnioski z raportu Hirscha, które można znaleźć chociażby pod http://ziemianarozdrozu.pl/encyklopedia/119/jak-uniknac-katastrofy . Jak można tam przeczytać:
„Kwestia zagrożeń związanych z możliwością kryzysu energetycznego w końcu dotarła do świadomości Ministerstwa Energii USA (US Department of Energy), na zlecenie którego w 2005 roku powstał raport na temat Oil Peak, którego głównym autorem był Dr Robert L. Hirsch. tzw. Raport Hirscha.”

Jak można w nim przeczytać (cytuję za http://www.rurociagi.com/spis_art/2008_4/pdf/bezpieczenstwo.pdf )

„Osiągnięcie maksimum (szczytu) światowej produkcji ropy przedstawia dla USA i całego świata niespotykane dotąd ryzyko. Z momentem przybliżania się tego szczytu ceny paliw płynnych i ich wahania będą wzrastać dramatycznie .Bez przeciwdziałania, koszty ekonomiczne, społeczne i polityczne tych procesów będą niespotykane (nie do oszacowania). Realne opcje przeciwdziałania istnieją zarówno po stronie podaży jak i popytu, jednakże by miały istotny wpływ (na sytuację) muszą być zainicjowane i podjęte więcej niż dekadę przed nadejściem szczytu”.

Konkluzje raportu można dobitnie streścić w punktach:
(cytuję za http://ziemianarozdrozu.pl/encyklopedia/119/jak-uniknac-katastrofy )

„•światowy szczyt wydobycia ropy nadejdzie i będzie nagły;
•uderzy w światową gospodarkę;
•najbardziej ucierpią kraje uzależnione od ropy;
•największy problem będzie dotyczył ciekłych paliw;
•katastrofa ekonomiczna jest możliwa do uniknięcia, o ile działania podjęte zostaną z odpowiednim wyprzedzeniem i są realne z wykorzystaniem istniejących technologii;
•przeciwdziałanie katastrofie wymaga działań proaktywnych:
–   zalecana jest akcja z 20 letnim wyprzedzeniem;
–   działanie z 10 letnim wyprzedzeniem wymaga wyjątkowego wysiłków rządów, przemysłu i społeczeństwa;
•działanie reaktywne oznacza dramatyczne konsekwencje;
•to kwestia zarządzania ryzykiem – ograniczanie zależności od ropy, zanim wystąpi kryzys;
•konieczne będą działania na szczeblu rządowym;
•konieczne są wszechstronne działania, zarówno po stronie oszczędności, jak i podaży energii:
–    ograniczenie zużycia, infrastruktura;
–    odnawialne źródła energii (trzeba energii na ich wytworzenie).”

Myślę, że ciekawa jest przy tym wszystkim postawa mediów oraz opinii publicznej, która chyba nie do końca zdaje sobie sprawę z konsekwencji takiej krótkowzrocznej polityki, którą się na świecie prowadzi. Pisałem zresztą o tym we wcześniejszej notce. Ale chyba dwa jej aspekty trzeba by tutaj naświetlić.
Pierwszy, to pokutujące w opinii społecznej przekonanie o możliwościach samej nauki i o tym, że nowe rozwiązania to tylko kwestia czasu i że – być może – zarówno rządy, jak i firmy z branży paliwowej, energetycznej oraz motoryzacyjnej mają w zanadrzu jakiś genialny wynalazek, który odmieni zupełnie stan związany z problemem braku energii.
Spotkałem się tutaj m.in. z opinią dotyczącą pewnego rozwiązania, którego twórcą miał być znany chorwacki wynalazca z przełomu XIX i XX w. Nikola Tesla. Jak można przeczytać na stronie w Wikipedii (http://pl.wikipedia.org/wiki/Nikola_Tesla )
„Koncepcja wolnej energii była rodzajem obsesji Tesli, który pod koniec życia wykorzystywał każdą wolną chwilę na jej poszukiwanie.
Tesla twierdził: “ujarzmiłem promienie kosmiczne i sprawiłem, by służyły jako napęd. Ciężko pracowałem nad tym przez ponad 25 lat, a dziś mogę stwierdzić, że się udało. (cytat z 10 lipca 1931 roku z Brooklyn Eagle).”
W 1901 opatentował odbiornik wolnej energii nazwany Aparatem do Wykorzystywania Energii Promienistej. Patent odnosi się do słońca, jak i innych źródeł energii promienistej, jak promienie kosmiczne.
Próbował także przekształcić jednobiegunową prądnicę Faraday’a w urządzenie wolnej energii. W 1889 roku uzyskał patent na maszynę dynamoelektryczną, której konstrukcję – opartą na pomyśle Faradaya – udoskonalił pod względem wydajności przez zmniejszenie oporu i odwrócenie momentu napędowego. Tesla sądził, że jeżeli da się uzyskać moment obrotowy o kierunku zgodnym – a nie przeciwnym – z kierunkiem ruchu, wówczas maszyna stanie się samowystarczalna. Chociaż nie udało mu się tego dokonać, jego ideą i ideą Faradaya zainteresowali się w latach 70. i 80. XX wieku liczni badacze, między innymi Bruce De Palma – wynalazca maszyny N, mimo że już za życia Tesli udowodniono, że tego rodzaju maszyna łamałaby kilka praw fizyki, przede wszystkim zasadę zachowania energii.”
Można sobie zadać też pytanie, cóż to były za koncepcje – „maszyna N” oraz „wolna energia”. Jak można też znaleźć w wikipedii (http://pl.wikipedia.org/wiki/Wolna_energia oraz http://pl.wikipedia.org/wiki/Maszyna_N )
„Wolna energia (ang. free energy, zwana też nieprecyzyjnie darmową energią) to określenie pozyskiwania energii:
metodami kwestionującymi poprawność zastosowania niektórych, obecnie uznanych zasad fizyki do nowopoznanych konfiguracji, zestawiających w niestandardowy sposób znane zjawiska fizyczne lub
metodami wykorzystującymi zjawiska jeszcze niedokładnie wyjaśnione.
Określa się ją często jako nową wersję perpetuum mobile, aczkolwiek większość badaczy traktuje tę dziedzinę jako poszukiwanie nowych, nieodkrytych i potencjalnie bardzo tanich w eksploatacji źródeł energii, jak np. energia próżni. Z założenia takie metody wytwarzania energii mają być szeroko dostępne, bez ograniczeń licencyjnych czy monopoli (stąd określenie “wolna”). Określenie to szybko zostało wykorzystane i zanagramowane przez handlowców sprzedających lub umożliwiających dostęp do alternatywnych źródeł energii do postaci chwytliwego hasła “darmowa energia”.
Zaś
„N-machine (Maszyna N) – generator elektryczności bazujący na dysku Faraday’a. Pole magnetyczne wytwarzane jest przez elektromagnesy, a nie przez magnes, jak to ma miejsce w dysku Faradaya. Badaczem tego urządzenia był Bruce De Palma. Twierdził, że uzyskał z tego urządzenia więcej energii niż włożył.
Jego wyników nie udało się potwierdzić, ale jeżeli to prawda to N-Machine musiała w jakiś sposób pobierać energię cieplną z otoczenia.”
Jak widać, nawet racjonalnie myślący ludzie, do jakich chyba należy zaliczyć Teslę, dają się czasami przekonać do idei będących w sprzeczności z elementarnymi prawami fizyki. Być może – sądząc po wyliczeniach dokonanych w latach 60. XX wieku przez znanego fizyka Johna Archibalda Wheelera – każdy metr sześcienny wszechświata ma gęstość energii odpowiadającą 10^94 gramom materii (to 10^14 razy więcej, niż cała materia wszechświata) jest jednak bardzo wątpliwe, aby można było w realnym świecie pozyskać taką energię, a już tym bardziej zrobić to w skali przemysłowej.

Drugi, to przykład, w jaki sposób w mediach przedstawia się nowe rozwiązania naukowe (nawet pochodzące z naszego rodzimego podwórka). Tutaj chociażby można przytoczyć wiadomość z TVNCNBC z 11.02.2009 (zob. http://www.tvn24.pl/12692,1585820,0,1,fotosynteza-przyszloscia-naszych-samochodow,wiadomosc.html ). W sumie tytuł jest zachęcający „Auta jak liście”. Mówi się tam o pionierskim wynalazku polskiego naukowca profesora Dobiesława Nazimka, dotyczącym otrzymywania metanolu z fotosyntezy. Jak można przeczytać na wstępie „fotosyntezy potrafią dokonywać nie tylko rośliny, ale także człowiek. Oczywiście – w laboratoriach chemicznych. W jej wyniku powstaje m.in. metanol, który później można zamienić w benzynę i olej napędowy. Problem w tym, że zwykle w wyniku sztucznej fotosyntezy powstaje roztwór, gdzie metanolu jest zaledwie 0,6 proc.”. „Udało się jednak opracować technologię, która jest znacznie bardziej efektywna. – Sukces polega na tym, że mamy dość “grube roztwory” – jak to się w chemii brzydko mówi. Chodzi o to, że stężenie jest ok. 15-procentowe. I to już jest bardzo dobre stężenie do dalszego przerobu.”

I tutaj właśnie można sobie zadać pytanie, podobne zresztą do przytoczonych we wcześniejszych postach. Czy instalacje, o których mowa w materiale będą równie efektywne i wydajne jak współczesne rafinerie ? Jaka jest sprawność takiego procesu (o czym materiał milczy) i czy można go porównać do sprawności samej fotosyntezy oraz – ewentualnie – sprawności tradycyjnego procesu otrzymywania biopaliw. Materiał ten milczy też o kosztach stosownych instalacji, w tym kosztach uruchomienia takiej produkcji na skalę przemysłową.
W materiale jest jednak też i łyżka dziegciu, gdyż cytuje się tam też wypowiedź doktora „Romana Buczkowskiego z Uniwersytetu Mikołaja Kopernika w Toruniu, który trzyma kciuki za nową technologię, ale jednocześnie podchodzi z rezerwą do możliwości wykorzystania jej na masową skalę. Niestety, z tych nowinek – gdyby tak podejść na trzeźwo – to przebiło się na skalę techniczną niewiele – podkreśla.”
Zatem problem rozwiązano czy też nie ? Z ostatniej wypowiedzi wynika, że chyba niekoniecznie. Jednak sam sposób przekazu sugeruje jednoznacznie pozytywne reakcje, choć już dokładniejsza analiza budzi pewne wątpliwości, co jednak mniej wprawnemu odbiorcy może sprawić trudność.
Myślę, że można tutaj też przypomnieć stosunkowo niedawną wiadomość dotyczącą znaczącego jakoby wynalazku związanego z ogniwami fotoelektrycznymi wykorzystującymi fotosyntezę. Jak można przeczytać pod http://kopalniawiedzy.pl/Michael-Strano-MIT-fotosynteza-energia-sloneczna-11274.html
„Jednym z największych problemów związanych z pozyskiwaniem energii ze Słońca jest fakt, iż promieniowanie słoneczne niszczy wiele materiałów, przez co stopniowo tracą one swoje właściwości. Natura radzi sobie z tym w ten sposób, że przechwytujące światło molekuły ulegają rozbiciu, a następnie ponownie zostają złożone. Dzięki temu element światłoczuły jest ciągle odnawiany, charakteryzuje się zatem wysoką wydajnością.
Michael Strano, profesor chemii z MIT-u mówi, że na pomysł naśladowania natury wpadł, czytając o biologii roślin. Byłem naprawdę pod wrażeniem tego, jak wydajny jest mechanizm naprawy roślin. W lecie, w pełnym słońcu liść z drzewa odtwarza swoje proteiny co 45 minut – mówi uczony.
Strano postanowił znaleźć sposób na naśladowanie tego mechanizmu. Wraz ze swoim zespołem wyprodukował sztuczne fosfolipidy w kształcie dysku. Fosfolipidy te stanowiły podstawę dla innych, światłoczułych molekuł, nazwanych tutaj centrami reakcji. Gdy uderzył weń foton, uwalniały one elektron.
Dyski z fosfolipidów były zanurzone w roztworze zawierającym nanorurki, w których spontanicznie się z nimi łączyły. Nanorurki utrzymywały dyski w uporządkowanym ułożeniu tak, że wszystkie centra reakcji były jednocześnie wystawione na działanie słońca. Nanorurki przewodziły pozyskane elektrony.
Gdy do całości dodano surfaktant, cała struktura rozpadała się na swoje części składowe, tworząc zawiesinę. Z kolei po usunięciu surfaktantu – co uzyskiwano przepychając roztwór przez membranę – ponownie dochodziło do spontanicznego zorganizowania się wszystkich składowych w ogniwo fotowoltaiczne.
Uczeni zbudowali prototyp według wcześniej opracowanych teoretycznych założeń. Badania wykazały, że po 14 godzinach pracy i ciągłego rozbijania oraz ponownego składania ogniwa, nie występuje żaden spadek jego wydajności.
Teoretyczna wydajność takiego systemu jest bliska 100 procentom.
Obecnie naukowcy szukają sposobu na zwiększenie w roztworze koncentracji struktur budujących ogniwo. Prototyp zawierał ich niewiele, dlatego też produkował bardzo mało elektryczności na jednostkę powierzchni”
I tutaj też kłania się pytanie. Być może jest to duża wydajność, ale – jak piszą autorzy wiadomości, oraz jak przyznają sami twórcy pomysłu – żeby doprowadzić do ponownego odbudowania ogniwa, trzeba przepuścić roztwór, o którym mówią, przez membranę. Czy zatem, w praktyce, też należałoby się liczyć z wprowadzeniem jakiegoś dodatkowego procesu, który miałby spowodować ponowne „odbudowanie” fotoogniwa ? A ponadto, jak się na końcu przyznają autorzy newsa, „Obecnie naukowcy szukają sposobu na zwiększenie w roztworze koncentracji struktur budujących ogniwo. Prototyp zawierał ich niewiele, dlatego też produkował bardzo mało elektryczności na jednostkę powierzchni” Dobrze to wróży możliwościom zastosowania takiego procesu chociażby na dużą skalę ? Chyba nie. Mamy tutaj więc po raz kolejny pewną barierę, której się nawet nie ukrywa, ale która może być znacząca dla zastosowania czegoś praktycznie i na dużą skalę.

Ale – wracając do samego tematu – czy są zatem jakieś realne przesłanki, że ów tytułowy amerykański sen się będzie jeszcze w przyszłości sprawdzał ?
Jak można przeczytać na stronie http://ziemianarozdrozu.pl/artykul/535/siedem-sposobow-na-rozwiazanie-problemu-energii  jest Siedem Dróg Do Przyszłości Energetycznej dla USA

1: Kolej. Rozwój sieci kolei powinien być priorytetem numer 1, powinny na to pójść poważne środki z funduszy publicznych.
2: Dachowe ogniwa fotowoltaiczne. Projekty o skali przemysłowej, jak gigantyczne elektrownie słoneczne na pustyniach i olbrzymie farmy wiatrowe doświadczają szeregu trudności: doboru lokalizacji, konieczności uzyskania pozwoleń i zanalizowania wpływu na środowisko, braku odpowiednich linii transmisyjnych i braku możliwości magazynowania energii. Dachowe ogniwa fotowoltaiczne nie natykają się na te problemy i można je instalować już teraz, stopniowo rozbudowując te instalacje.
3: Pojazdy alternatywne. Rekonfiguracja naszych “rozpełzniętych przedmieść” pod kątem transportu zbiorowego i budowa linii tramwajowych zajmie dekady, potrzebujemy więc rozwiązań przejściowych, które pozwolą na przemieszczanie się pojazdami o alternatywnym napędzie.
4: Efektywność. Największe zyski efektywnościowe możemy uzyskać w obszarze ogrzewania i chłodzenia budynków.
5: Przemysłowa skala odnawialnych źródeł energii. Będziemy potrzebować dużych elektrowni słonecznych na pustyniach i farm wiatrowych na lądzie i morzu.
6: Sprytna Sieć (Smart Grid) przesyłowa. Dysponujemy już wszystkimi potrzebnymi technologiami. Jedyne czego brakuje, to wola działania i wyłożenie środków.
7: Wierćmy dalej. Jeśli wydobycie ropy i gazu spadnie zbyt szybko, nie będziemy w stanie przeprowadzić potrzebnej transformacji. Nie traktujmy tego jednak jak sposobu na opóźnianie działań – na to nie mamy już czasu.”
Więcej można znaleźć pod http://www.businessinsider.com/the-seven-areas-to-focus-for-solving-the-energy-problem-2009-7

Pozostaje tutaj chyba tylko miejsce na puentę.

Przypomniałem sobie w związku z tym, m.in. historię kolei amerykańskich, które – choć na początku były głównie prywatne – teraz od wielu lat są w gestii państwa, podobnie jak i koleje w Niemczech, Francji czy Wielkiej Brytanii. Historię “Amtrak-a” można znaleźć pod http://pl.wikipedia.org/wiki/Amtrak  . Można tam przeczytać m.in., że “Przedsiębiorstwo zostało stworzone, by uratować amerykański system kolei pasażerskich przed upadkiem. W latach przed jego powstaniem rozwój transportu lotniczego i drogowego w Stanach Zjednoczonych drastycznie zmniejszył dochodowość dalekobieżnych pociągów pasażerskich, tak więc prywatne przedsiębiorstwa wolały przestawić się w całości na obsługiwanie dochodowych pociągów towarowych. Amtrak miał za zadanie przejąć przewozy pasażerskie od kolei prywatnych i utrzymać minimalny system kolei pasażerskich na całym obszarze Stanów Zjednoczonych. W całej swojej historii Amtrak nie przyniósł jeszcze zysku, i może funkcjonować tylko dzięki dotacjom rządu federalnego.” Ciekawe, że w Ameryce, mimo iż szczyci się ona jakoby najbardziej rynkową gospodarką na świecie, rząd już od dawna pewne gałęzie gospodarki i infrastruktury traktuje jako mające kluczowe znaczenie dla Państwa i wspiera je finansowo. Czy można tu jeszcze coś dodać ? Chyba jeszcze tylko to, że – być może – to właśnie kolej może być głównym przewoźnikiem w przyszłości.
Przypomnieć tu jeszcze można, że nie dalej jak dwa tygodnie  temu w Warszawie była demonstracja  kolejarzy  (zob. http://www.tvp.info/informacje/polska/kolejarze-paralizowali-ulice-warszawy/2832681 ), którzy – chyba słusznie – domagają się właściwego traktowanie ich pod względem ekonomicznym, więc chyba problem ten jest tu aktualny.
Na koniec – przypomniałem sobie piosenkę “City of New Orleans”, którą wykonywał kiedyś m.in. Willie Nelson (do posłuchania np .pod http://compton-la.wrzuta.pl/audio/5IJxW3rWcdT/willie_nelson_-_city_of_new_orleans  ). Żeby tak przytoczyć tekst (można znaleźć pod http://teksty.org/Johnny_Cash,City_of_New_Orleans  ) jest to w istocie piosenka nie tylko o “Pociągu, którego zwą ‘Miasto Nowy Orlean'”, ale również o pewnej sytuacji w USA, kiedy z dnia na dzień między Chicago i Nowym Orleanem regularnie kursuje pewien pociąg, którego przejazd może jakby świadczyć o dobrym nastroju pasażerów oraz całej Ameryki (o czy świadczą chociażby słowa “Good mornin’ America, how are you? Don’t you know me? I’m your native son! I’m the train they call the City of New Orleans I’ll be gone 500 miles when the day is done.”. )

City of New Orleans
Ridin’ on the City of New Orleans
Illinois Central, Monday mornin’ rail
15 cars & 15 restless riders
Three conductors, 25 sacks of mail

All along the southbound odyssey the train pulls out of Kankakee
Rolls along past houses, farms & fields
Passin’ graves that have no name, freight yards full of old black men
And the graveyards of rusted automobiles

Chorus:
Good mornin’ America, how are you?
Don’t you know me? I’m your native son!
I’m the train they call the City of New Orleans
I’ll be gone 500 miles when the day is done

Dealin’ cards with the old men in the club car
Penny a point, ain’t no one keepin’ score
Pass the paper bag that holds the bottle
And feel the wheels grumblin’ neath the floor

And the sons of Pullman porters & the sons of engineers
Ride their fathers’ magic carpet made of steel
Mothers with their babes asleep, rockin’ to the gentle beat
And the rhythm of the rails is all they feel

Repeat Chorus

Night time on the City of New Orleans
Changin’ cars in Memphis, Tennessee
Halfway home, we’ll be there by mornin’
Thru the Mississippi darkness rollin’ down to the sea

But all the towns & people seem to fade into a bad dream
And the steel rail still ain’t heard the news
The conductor sings his song again
“The passengers will please refrain:
This train has got the disappearin’ railroad blues

Repeat Chorus

I – myślę – że najlepsze podsumowanie takiej sytuacji, do której chyba należałoby dążyć – można znaleźć również w angielskiej Wikipedii pod http://en.wikipedia.org/wiki/City_of_New_Orleans  oraz  http://en.wikipedia.org/wiki/City_of_New_Orleans_(song)  .

Advertisements

Katarzyna, czyli kto tu jest winien

Już od dawna chciałem o tym napisać, ale jakoś nie starczało czasu. Ale ponieważ zbliża się okres kanikuły i jakby – odrobinę – ubyło mi obowiązków, zaś temat, o którym chciałem napisać parę słów jest na czasie, postanowiłem się za to pisanie zabrać. Chodzi tu oczywiście o – jakby już powtarzające się – powodzie w Polsce. Przy czym – najpierw – postanowiłem zadać sobie pytanie, co tutaj odgrywa rolę decydującą – natura czy cywilizacja. Jak możemy przeczytać na stronach “Gazety Wyborczej” – zob. http://wyborcza.pl/1,75476,7911944,Polske_zalalo_przez_pyl_wulkaniczny_.html
“Nietypowe, gwałtowne opady deszczu w maju to częściowo efekt unoszącego się nad Europą pyłu, który wyrzuca islandzki wulkan Eyjafjoell – uważa meteorolog dr Katarzyna Grabowska z Uniwersytetu Warszawskiego.
– Tak intensywne opady związane są przeważnie z tzw. niżami genueńskimi, które docierają do nas latem znad Zatoki Genueńskiej na Morzu Śródziemnym. Niż zwykle zostaje nad Polską i naszymi południowymi sąsiadami przez kilka dni, bo drogę blokuje mu wyż nad wschodnią Europą – tłumaczy dr Grabowska. – Podobnie było w lipcu 1997 czy sierpniu 2004 r. Tym razem jednak zdarzyło się to wcześniej, gdyż krążący nad Europą pył wulkaniczny dostarczył do wyższych warstw atmosfery dodatkowe jądra kondensacji, na których mogła skroplić się para wodna. Opadów jest więc więcej niż normalnie – uważa uczona.”

Co to oznacza ? Że nie tylko przez cyrkulację atmosferyczną mamy taką anomalię pogodową (Niż Genueński), ale również przez wpływ wulkanu. Świadczy o tym również inforamcja z IMiGW (zob. http://wiadomosci.ekologia.pl/srodowisko/Fala-powodziowa-plynie-Wisla,12430.html)
“Jak poinformowała nas pani synoptyk z IMGW – Julita Cedzińska-Zięba – pyły z islandzkiego wulkanu mogły mieć wpływ na ilości opadów, ponieważ stanowią jądra kondensacji na których tworzy się opad.
Dyżurny hydrolog, pani Marianna Sasin dodała, że notowane obecnie poziomy opadów zdarzają się u nas i nie są czymś wyjątkowym. Natomiast przekroczenia stanów alarmowych wynikają po części ze stanu naszej infrastruktury. W porównaniu z 1997 rokiem zarówno ilości opadów, jak i stany wód w dorzeczu Odry są obecnie niższe. Dla dorzecza Wisły poziomy te są porównywalne. Podobnie jak wielkość fali z 2001 r.
Od 1962 r. nie został pobity rekordowy poziom wody na Wiśle w Warszawie, który wynosi 787cm. Czyli w okresie po 1962 r. intensywne opady i kolejne fale wezbraniowe nigdy nie spowodowała tak dużego podniesienia się poziomu wody.
Niż który nam ostatnio dokuczał odsuwa się na południowy-wschód, w związku z tym pogoda nieco się poprawi, jednak w dalszym ciągu przewidywane są opady deszczu o charakterze ciągłym w ilości 5-15mm. Lokalnie jednak spodziewane są burze, podczas których opady mogą wynieść od 30 do 50mm, także w rejonie zagrożonym powodzią. W następnych dniach pogoda będzie się poprawiać. Nadal będą padały deszcze,  ale już o mniejszej intensywności.
Najpoważniejsza sytuacja hydrologiczna jest w województwach opolskim i śląskim, gdzie przekroczenia stanów alarmowych są największe. W pozostałych rejonach stan wód dorzeczy górnej Wisły i górnej Odry już się obniżył. Sytuacja niebezpieczna jest na samej górnej Wiśle i Odrze. Fala wezbraniowa przemieszcza się i w najbliższych dniach spodziewana jest w środkowych biegach tych rzek.
– Współpracujemy ze służbami czeskimi i nie spodziewamy się zagrożenia ze strony wody spuszczanej ze zbiorników retencyjnych w dorzeczu Odry – powiedziała Marianna Sasin.
Fala powodziowa dotrze do Warszawy w ciągu trzech dni i ma być znacznie wyższa niż w 1997 r. , w okresie tzw. „powodzi stulecia”. Do tamy we Włocławku fala dotrze za kolejne 1,5 dnia. Wraz z przemieszczaniem się w dół rzeki fala będzie jednak obniżać swój poziom.”

Czy jednak i ludzie się do tego nie przyczynili. Myślę tutaj o ociepleniu klimatu i jego ewentualnych skutkach meteorologicznych. Jak można to przeczytać w Wikipedii (http://pl.wikipedia.org/wiki/Globalne_ocieplenie )
“Termin “zmiana klimatu” oznacza zauważalną zmianę klimatu (np. temperatura, opady, wiatr) utrzymującą się przez dłuższy okres (dekady) z jakichkolwiek przyczyn. Może więc odnosić się do takich efektów, jak globalne ochłodzenie lub zmiany w ogólnej cyrkulacji atmosfery na Ziemi. Ramowa konwencja Narodów Zjednoczonych w sprawie zmian klimatu (UNFCCC) używa terminu “zmiana klimatu” do zmian spowodowanych przez człowieka i “zmienność klimatyczna” do zmian z przyczyn naturalnych”, oraz dalej – w części Sprzężenie zwrotne
“Zmiany stężenia gazów cieplarnianych w atmosferze są jedną z bezpośrednich przyczyn globalnego ocieplenia, ale ze zmianami temperatury wiążą się różnego rodzaju wtórne efekty, które mogą przyczyniać się do dodatkowego wzrostu albo do spadku temperatury. Niektóre z tych zjawisk są objęte sprzężeniem zwrotnym dodatnim, powiększającym zmiany, a inne ujemnym, przeciwdziałającym zmianom.
Istotnym zjawiskiem objętym dodatnim sprzężeniem zwrotnym jest efekt cieplarniany wywołany obecnością pary wodnej w atmosferze. Ocieplenie powierzchni wskutek dodawania gazów cieplarnianych, takich jak CO2, powoduje wzrost wyparowywania wody do atmosfery zwiększając jej ilość w atmosferze. Ponieważ para wodna jest także gazem cieplarnianym, atmosfera jeszcze bardziej się ociepla; to ocieplenie powoduje z kolei dalsze parowanie wody. Ten cykl objęty dodatnim sprzężeniem zwrotnym nazywany jest efektem supercieplarnianym. To dodatnie sprzężenie zwrotne zwiększa efekt cieplarniany wywołany samym dwutlenkiem węgla. Natomiast efekt zmian wilgotności jest nieco bardziej skomplikowany: wprawdzie w cieplejszej atmosferze ilość pary wodnej na jednostkę objętości (wilgotność bezwzględna) powietrza rośnie, ale ilość pary wodnej względem ilości pary wodnej nasyconej (wilgotność względna decydująca o tworzeniu się chmur) pozostaje względnie stała. Efekt dwutlenku węgla i związane sprzężenia są odwracalne, ale ze względu na długi okres przebywania dwutlenku węgla w atmosferze i bezwładność cieplną oceanu, zmiany są długoterminowe.”

Jak można tu przeczytać, ocieplenie klimatu może wiązać się z podwyższonym poziomem pary wodnej w atmosferze. Czy aby zatem oba te czynniki się nie sumują ? To jest większe parowanie i obecność pyłu wulkanicznego. Wydaję się, ze tak, tym bardziej, że jakby doświadczyliśmy tego sami.
Jednakże w związku z tym naszła mnie jeszcze jedna refleksja, zresztą takie wnioski wysnuwałem już wcześniej, ale jakoś nie udało mi się ich przenieść do Internetu.
Po skutkach tej powodzi widać w jak dużym stopniu jesteśmy uzależnieni od samej cywilizacji. Wiąże się to nie tylko z klimatem, ale również z całym mnóstwem rzeczy, które powodują, że jesteśmy uzależnieni od cywilizacji. Przykładów można by tu mnożyć bez liku. Rzecz w tym, ze natura może – prędzej czy później – wystawić nam za to rachunek, i to – jak myślę – dość słony. Zatem skupmy się teraz na takich przykładach. Jedna z pierwszych rzeczy, jak przychodzi mi go głowy to nasze uzależnienie od dostępności w miarę tanich surowców, wykorzystywanych do budowy cywilizacji. Chyba teraz już nawet część ludzi nie pamięta raportu “Granice wzrostu”, autorstwa “Klubu Rzymskiego”. Jak możemy przeczytać w Wikipedii (http://pl.wikipedia.org/wiki/Granice_wzrostu)

“Granice Wzrostu (ang. Limits to Growth) – wydana przez Klub Rzymski w 1972 książka analizująca przyszłość ludzkości wobec wzrostu liczby mieszkańców Ziemi oraz wyczerpujących się zasobów naturalnych. Autorami opracowania są: Donella H. Meadows, Dennis L. Meadows, Jorgen Randers i William W. Behrens III.
Prognozy
Podstawowym założeniem autorów była obserwacja, że parametry związane ze zużyciem zasobów przez ludzkość charakteryzują się wzrostem wykładniczym, a dostępne zasoby pozostają stałe w związku z czym nieuniknione jest osiągnięcie w krótkim czasie sytuacji, w której dalszy wzrost będzie niemożliwy ze względu na brak zasobów. Jest to rozbudowana wersja statycznej teorii zasobów Malthusa, oparta o większą liczbę parametrów niż żywność.
Twórcy pracy analizowali pięć trendów: przyspieszającą industrializację, szybki wzrost zaludnienia, powszechne niedożywienie, wyczerpywanie się zasobów nieodnawialnych i pogarszający się stan środowiska. Na podstawie tych parametrów zbudowali matematyczny model świata i doszli do wniosku, że:
„Jeśli obecne trendy wzrostowe światowej populacji, industrializacji, zanieczyszczenia, produkcji żywności i zużycia zasobów zostaną utrzymane to w ciągu najbliższych stu lat osiągnięte zostaną granice wzrostu tej planety. Najbardziej prawdopodobnym skutkim będzie raczej gwałtowny i niekontrolowany spadek zarówno liczebności populacji jak i produkcji przemysłowej. ”— The Limits To Growth, 1972, str. 32
Równowaga światowa może według Klubu zostać osiągnięta poprzez ograniczenie wzrostu liczby ludności, zmniejszenie zużycia zasobów nieodnawialnych oraz racjonalne zużywanie surowców odnawialnych. W szczególności, autorzy przyjęli że możliwe jest zbudowanie “modelu zrównoważonego” jeśli zostaną spełnione następujące warunki:
populacja ma dostęp do stuprocentowo skutecznych metod kontroli urodzin,
średni pożądany rozmiar rodziny to dwójka dzieci,
system ekonomiczny utrzymuje średnią produkcję przemysłową per capita na poziomie z 1975 roku; nadmiarowe zdolności produkcyjne są wykorzytywane do wytwarzania dóbr konsumpcyjnych zamiast zwiększania poziomu inwestycji kapitałowych w przemyśle powyżej poziomu deprecjacji (rather than increasing the industrial capital investment rate above the depreciation rate).
Prognozy
Raport zawiera szereg wyliczeń dotyczących aktualnych zasobów rozmaitych surowców naturalnych oraz trzy rodzaje prognoz – przy założeniu zużycia statycznego (na takim samym poziomie jak w 1970 roku), wykładniczego (utrzymanie trendu wzrostowego) oraz wykładnicze przy założeniu, że zasoby będą pięciokrotnie większe (by uwzględnić złoża odkryte w przyszłości). Na przykład dla ropy naftowej przyjęto następujące wartości:
aktualne zasoby światowe – 455 * 109 baryłek (1970)
prognozowane wyczerpanie zasobu w modelu “statycznym” – 31 lat (2001 rok)
prognozowanie wyczerpanie zasobu w modelu wykładniczym – 20 lat (1990 rok)
prognozowane wyczerpanie zasobu w modelu wykładniczym i zasobem pomnożonym pięciokrotnie – 50 lat (2020 rok)
W odniesieniu do ropy naftowej potwierdzone (P90) zasoby w 2008 roku wynosiły 1243 * 109 baryłek, co przy wielkości produkcji na rok 2008 powinno wystarczyć na następne 54 lata (2062 rok) przy założeniu, że nie zostanie podjęta eksploatacja nowych, trudniej dostępnych złóż.
Analogiczne prognozy dla złota:
aktualne zasoby światowe – 353 * 106 uncji jubilerskich (1970)
prognozowane wyczerpanie zasobu w modelu “statycznym” – 11 lat (1981 rok)
prognozowane wyczerpanie zasobu w modelu wykładniczym – 9 lat (1979 rok)
prognozowane wyczerpanie zasobu w modelu wykładniczym i zasobem pomnożonym pięciokrotnie – 29 lat (1999 rok)
W 2009 roku potwierdzono wydobycie 5,175 * 109 uncji jubilerskich złota i ocenia się, że stanowi to około 60% całkowitych zasobów światowych.
Jednym z parametrów branych pod uwagę w książce przy rozważaniu zanieczyszczeń było stężenie atmosferyczne dwutlenku węgla i prognozowane wartości odpowiadają dość dokładnie krzywej Keelinga.”

Jak wszyscy wiemy, dzięki kolejnym odkryciom różnego rodzaju złóż (np. ropy naftowej, gazu ziemnego czy węgla), prognozy przewidywane przez “Klub Rzymski” należało wyraźnie skorygować, jest jednak bezsporne moim zdaniem, że – tak czy siak – czas “wielkiego oszczędzania” może się – być może jeszcze za naszego życia już zacząć. Dlaczego ?
Ciekawa – moim zdaniem – jest tutaj analiza, którą można znaleźć na stronach http://www.durangobill.com/Rollover.html .
Zamieszczono tam m.in. wyniki analiz przeprowadzonych przez przemysł naftowy dotyczący wyczerpywania się źródeł ropy naftowej. Dość sugestywny jest tutaj rysunek http://www.durangobill.com/RolloverPics/RolloverGap.jpg,

RolloverGap

z którego wynika, że mamy już teraz do czynienia z spadkiem odkryć nowych źródeł ropy naftowej. Skutki tego stanu rzeczy ilustruje rysunek http://www.durangobill.com/RolloverPics/Rollover1.jpg ,

 

Rollover1

gdzie widać, że praktycznie już ok. 2020 roku dojdzie do “rozejścia się” krzywych popytu i podaży ropy naftowej. Jak myślę, nie jest to analiza pochopna, i poparta jest stosownymi liczbami. Z rysunku tego widać też, że nawet wykorzystywanie trudniej dostępnych źródeł ropy, takich jak piaski roponośne na niewiele się tutaj zda.
Często jednak przywoływane są tutaj argumenty, że można będzie nieodnawialne źródła energii zastąpić odnawialnymi. Nie jest to jednak moim zdaniem do końca prawda, gdyż i tutaj istnieje cała lista zastrzeżeń. Przede wszystkim kłania się tutaj efektywność lub dostępność takich źródeł. Znów przykładów można by mnożyć. Pierwszy to np. energetyka wodna. Nie jest żadną tajemnicą, że do budowy elektrowni wodnych potrzeba cementu. W przypadku braku np. taniego węgla (zob. http://pl.wikipedia.org/wiki/Piec_cementowy), pozyskanie w tani sposób dużej ilości cementu może być trudne do przeprowadzenia.
Kolejnym przykładem jest wykorzystanie kontrolowanej energii jądrowej, np. w tokamakach. Jak można przeczytać w wikipedii (zob. http://pl.wikipedia.org/wiki/Tokamak)
“W ciągu ostatnich lat coraz częściej wskazuje się na istnienie bardziej obiecujących koncepcji dla przeprowadzania kontrolowanej reakcji termojądrowej. Najczęściej wymieniany jest opracowywany obecnie reaktor typu polywell. Testowa wersja reaktora typu polywell (model WB-7), której konstrukcja kosztowała poniżej 2 milionów dolarów i była rozpoczęta w sierpniu 2007, osiągnęła pierwszą plazmę w styczniu 2008. Ten etap zaawansowania w przypadku projektu ITER planowany jest dopiero na rok 2016, a koszt konstrukcji reaktora jest znacznie większy (około 5 miliardów dolarów w sumie na budowę i przeprowadzenie badań na przestrzeni 30 lat).
Fizyk plazmy Nicholas Krall powiedział “wydaliśmy 15 miliardów dolarów na badania tokamaków i dowiedzieliśmy się, że są do niczego”
Następne dwa przykłady jakby nawiązują do przykładu z cementem i dotyczą wykorzystania energii wiatrowej lub geotermalnej. W obu tych przypadkach, konieczne jest również wykonanie pewnych instalacji, które oczywiście wymagają dostępności takich surowców jak metale czy tworzywa sztuczne, co w przypadku ich niedoboru może stanowić pewnego rodzaju problem.
Ciekawa też może być analiza wykorzystania biopaliw. Jak możemy przeczytać w wikipedii (http://pl.wikipedia.org/wiki/Biopaliwo)
“Używanie biopaliw w założeniu ma służyć poprawie bilansu emisji gazów cieplarnianych oraz zmniejszeniu uzależnienia od ropy naftowej.
Metody produkcji biopaliw wytwarzanych z oleju rzepakowego, zbóż uprawnych oraz trzciny cukrowej na polu powstałym po wykarczowaniu lasu tropikalnego są poddawane krytyce. Równocześnie jednak taka metoda produkcji jest najbardziej rozpowszechniona dzięki subsydiowaniu uprawy biopaliw przez państwa.
Zauważono, że przy produkcji biopaliwa emitowanych jest 3x więcej gazów cieplarnianych niż przy wydobywaniu i spalaniu zwykłej benzyny. Wliczona w to jest ograniczona wymiana gazowa jaka ma miejsce na polu przeznaczonym do biouprawy. Pole wyjaławia się znacznie i wymaga kosztownej rekultywacji. Taka uprawa ogranicza bioróżnorodność, przyczynia się do rozwoju patogenów, szkodników i chorób oraz stwarza poważne zagrożenie w czasach coraz większego zapotrzebowania na żywność i prowadzą do podniesienia ich cen.”
Jak widać z tej analizy problematyczny w takiej sytuacji może być np. wzrost cen żywności, jak i skutki klimatyczne. Na dodatek – jak kiedyś przeczytałem w prasie – nie ma na świecie takiego areału użytków rolnych, który można byłoby wykorzystać do uprawy rośli zaspokajających choćby w części nasze obecne zapotrzebowania energetyczne. Zresztą i tak ten przykład ze wzrostem cen żywności wydaje się tutaj być dostatecznie przekonywujący.
Cóż zatem pozostaje ?
Myślę, że – chociażby będąc świadomi skutków ograniczeń cywilizacyjnych – wypadałoby podjąć się czegoś co ja kiedyś nazwałem deregulacją w sensie zasobów naturalnych. Samo pojęcie deregulacji znane było już wcześniej i (jak to można przeczytać w wikipedii)
“Deregulacja (łac.) – zmniejszenie oddziaływania państwa na ekonomiczną sferę kraju, czyli przede wszystkim na rynek, poprzez brak ingerencji w ustalanie cen oraz jakości dóbr i usług. Jest to także znoszenie regulacji prawnych na linii pracownik-pracodawca poprzez znoszenie lub obniżanie płacy minimalnej. Deregulacja wiąże się ściśle z procesem liberalizacji gospodarki, a często i prywatyzacji.”
W przypadku deregulacji w sensie cywilizacyjnym można by było tu mówić o wprowadzaniu takich rozwiązań, które spowodowałyby zmniejszenie uzależnienia funkcjonowania współczesnych społeczeństw od nieodnawialnych zasobów naturalnych i – w konsekwencji – od towarzyszących ludzkości udogodnień cywilizacyjnych. Myślę, ze temat ten mógłby być przedmiotem dużo ciekawszych debat w mediach niż obecne dyskusje prowadzone w kontekście bieżącej polityki. Niestety – tak myślę – że wskutek pewnego rodzaju braku odwagi (może nawet odwagi cywilnej) – często funduje się społeczeństwu tematy zastępcze, które miałyby odwrócić uwagę większości od prawdziwych problemów, które mogą nas czekać w przyszłości. Pewnym rozwiązaniem mogłoby być przejście np. na prostsze formy gospodarowania (np. rezygnacja z intensywnych form uprawy roślin) oraz zachęcanie ludzi do ograniczenia konsumpcji (np. przez promowanie transportu zbiorowego oraz popieranie tańszych form budownictwa). Myślę, ze istotne tutaj mogłyby być nawet przykłady pokazywania pozytywnych aspektów prostszych form ludzkiej egzystencji, takich np. jak życie związane z prowadzeniem indywidualnego gospodarstwa rolnego, życie akcentujące świadome ubóstwo (np. we wspólnotach religijnych, zresztą nie tylko chrześcijańskich) lub życie mniej uzależnione od cywilizacji (charakterystyczne dla krajów rozwijających się, np. Afryki i Ameryki Południowej)
A jako puentę – myślę – że można tu przytoczyć piosenkę ” Arka Noego” w wykonaniu Jacka Kaczmarskiego, Przemysława Gintrowskiego i Zbigniewa Łapińskiego (do posłuchania pod http://oxygene1994.wrzuta.pl/audio/52iZH0RYLaX/gintrowski_kaczmarski_lapinski_-_arka_noego  – tekst można znaleźć pod http://www.tekstowo.pl/piosenka,jacek_kaczmarski,arka_noego.html).

“W pełnym słońcu w środku lata
Wśród łagodnych fal zieleni
Wre zapamiętała praca
Stawiam łódź na suchej ziemi
Owad w pąku drży kwitnącym
Chłop po barki brodzi w życie
Ja pracując w dzień i w nocy
Mam już burty i poszycie

Budujcie Arkę przed potopem
Dobądźcie na to swych wszystkich sił
Budujcie Arkę przed potopem
Choćby tłum z waszej pracy kpił
Ocalić trzeba co najdroższe
A przecież tyle już tego jest
Budujcie Arkę przed potopem
Odrzućcie dziś każdy zbędny gest

Muszę taką łódź zbudować
By w niej całe życie zmieścić
Nikt nie wierzy w moje słowa
Wszyscy mają ważne wieści
Ktoś się o majątek kłóci
Albo łatwy węszy żer
Zanim się ze snu obudzi
Będę miał już maszt i ster

Budujcie Arkę przed potopem
Niech was nie mami głupców chór
Budujcie Arkę przed potopem
Słychać już grzmot burzowych chmur
Zostawcie kłótnie swe na potem
Wiarę przeczuciom dajcie raz
Budujcie Arkę przed potopem
Zanim w końcu pochłonie was

Każdy z was jest łodzią, w której
Może się z potopem mierzyć
Cało wyjść z burzowej chmury
Musi tylko w to uwierzyć
Lecz w ulewie grzmot za grzmotem
I za późno krzyk na trwogę
I za późno usta z błotem
Wypluwają mą przestrogę

Budujcie Arke przed potopem
Słyszę sterując w serce fal
Budujcie Arkę przed potopem
Krzyczy ten, co się przedtem śmiał
Budujcie Arkę przed potopem
Naszych nad własnym losem łez
Budujcie Arkę przed potopem
Na pierwszy i na ostatni chrzest”

Izabela, czyli za i przeciw “Cloud Computing”

Ten temat ostatnio jakoś tak za mną chodzi. Ale do rzeczy. Dość znane jest w środowisku marketingowców określenie “buzz word” czyli po polsku “buzer” inaczej – “modne słowo” (zob. http://slowniki.gazeta.pl/angpl/buzzer ). Opowiedziano już na ten temat tyle przeróżnych rzeczy, że zacząłem się zastanawiać, jak można by oswoić taką koncepcję i zacząłem trochę czytać na ten temat. Ostatnio w polskim wydaniu ComputerWorld pojawiła się cała kolekcja artykułów poświęconych właśnie “cloud computing”. Jak się okazuje – są też i głosy krytyczne. W artykule Beth Schultz “Cloud computing: za i przeciw” znaleźć można i takie argumenty (cytuję za witryną computerworld.pl – zob. http://www.computerworld.pl/artykuly/346689_1/Cloud.computing.za.i.przeciw.html )

ARGUMENTY PRZECIW:

Szerokopasmowe łącza mogą zrujnować budżet

Właśnie taki przypadek stwierdzono przy analizie możliwości migracji Sony Pictures Image Works do zewnętrznej chmury, w celu rozwiązania problemów ze skalowalnością istniejącej infrastruktury IT. “Każdego dnia animatorzy pobierają lub tworzą od 4 do 12 terabajtów danych. Koszt łącza o niezbędnej dla tego celu przepustowości byłby tak duży, że za te pieniądze moglibyśmy kupić własną infrastrukturę składowania i przetwarzania danych” – mówi Nick Bali, starszy inżynier systemowy w SPIW. Obecnie Sony testuje prywatną chmurę przy użyciu oprogramowania firmy ParaScale.

Wydajność może spadać

Prywatna chmura może podwyższyć wydajność pracy aplikacji, ale usługa w modelu cloud świadczona przez zewnętrznego dostawcę nie zawsze będzie działać szybciej, zwłaszcza gdy weźmie się pod uwagę opóźnienia generowane przez sieć. Nie każdy dostawca może zapewnić łącza o odpowiedniej przepustowości i gwarantowanej wartości opóźnień. W przypadku niektórych aplikacji, opóźnienia wynikające z technologii transferu dużej ilości danych przez ekonomicznie uzasadnione łącza, są nieakceptowalne. “Nie wyobrażam sobie żadnego banku, który zdecydowałby się na umieszczenie wrażliwej na opóźnienia aplikacji w chmurze dostarczanej przez zewnętrznego dostawcę” – komentuje Steve Harriman, wiceprezes NetQoS.

Nie wszystkie dane warto przetwarzać w chmurze

Są firmy, które przetwarzają wrażliwe dane, szczególnie dotyczy to instytucji finansowych lub medycznych. Tego typu informacje muszą być odpowiednio chronione, co w przypadku zewnętrznej chmury jest kłopotliwe lub niemożliwe w realizacji ze względu na regulacje prawne. “Prawdopodobnie mielibyśmy od 8 do 10 aplikacji, które warto byłoby przenieść do modelu cloud, ale biorąc pod uwagę typ danych, ich wrażliwość i wymagania odnośnie do ochrony dostępu, zdecydowaliśmy się na przetwarzanie wewnątrz” – mówi Dave Powers. “W żadnym wypadku nie można eksploatować w chmurze aplikacji, które mogłyby dostarczyć konkurencji przewagi na rynku lub przetwarzającej wrażliwe informacje klienta” – dodaje Tony Bishop, CEO w Adaptivity.

Gdy coś jest duże już teraz, chmura się nie opłaca

Firma, która eksploatuje rozległe zestawy aplikacji o dużej ilości danych, niekoniecznie musi osiągnąć pokaźne zyski po migracji do chmury świadczonej przez zewnętrznego dostawcę. “Im większa jest firma, tym więcej posiada zasobów IT i tym mniejsze są zyski płynące z przeniesienia istniejących zasobów do modelu cloud” – mówi Tom Nolle. “Przetwarzanie danych w chmurze poprawia wykorzystanie zasobów, ale zyski są największe przy rozwoju od względnie małych potrzeb w górę. Gdy przedsiębiorstwo jest już dużą korporacją, większe korzyści biznesowe można osiągnąć za pomocą realizacji własnej chmury, niż korzystania z outsourcingu” – dodaje.

Brak kapitału ludzkiego

Poznawanie modeli IT z następnej generacji wymaga od specjalistów pewnej żyłki przygody oraz technicznej bystrości i przenikliwości. Po wdrożeniu modelu cloud, w dziale IT wiele musi się zmienić. “Jeśli nie ma w firmie kapitału ludzi zainteresowanych nauką nowych zadań i przygotowanych na zmiany, migracja do cloud może być frustrująca” – mówi Bernard Golden.

Przeczytałem też niedawno, ze jednym z celów “Cloud Computing” może być użycie dużej mocy obliczeniowej, w celu złamania (za w sumie niewielkie pieniądze – w grę wchodziło kilkaset dolarów) hasła komputerowego metodą Brute Force. Taka proweniencja może specjalnie dobrze się nie kojarzyć.
 Ale i mnie przyszedł do głowy pewien pomysł z własnego podwórka. Tak się składa, że w pracy zetknąłem się z problemem optymalizacji nieliniowej, który można rozwiązać (w sposób zbliżony do klasycznego trybu wsadowego) przy użyciu zdalnych maszyn zadając im dane wejściowe i schemat algorytmu. Służy do tego celu specjalny język znany jako AMPL (zob. http://www.ampl.com ). Jak można przeczytać na wspomnianej stronie “AMPL is a comprehensive and powerful algebraic modeling language for linear and nonlinear optimization problems, in discrete or continuous variables.” Pomyślałem sobie, że – w sumie – problem nie jest nowy, ale czy był już rozważany przez luminarzy “Cloud computing” – tego nie wiem.
Istnieje też całe spektrum zastosowań metod numerycznych, które wykorzystują technikę tzw. MPP,
czyli – cytuję za wikipedia.pl  http://pl.wikipedia.org/wiki/MPP
– Komputery masowo równoległe (ang. Massively Parallel Processors, MPP) – rodzaj architektury komputerowej. Jej zadaniem jest umożliwienie przetwarzania współbieżnego (jednoczesnego) na wielu procesorach.
Do najistotniejszych realizowanych funkcji należą:
zarządzanie przydziałem zasobów komputera równoległego do procesów i organizacja komunikacji między procesami
szeregowanie zadań (procesów) w czasie i przestrzeni
zarządzanie pamięcią wirtualną
rekonfiguracja systemu i redystrybucja zasobów między procesami w przypadku awarii jednego z węzłów.

Rzecz w tym, że aby złożony problem obliczeniowy zapisać efektywnie dla środowiska wieloprocesorowego, trzeba coś wiedzieć o strukturze obliczeń. Jeśli np. w grę wchodzą macierze rzadkie, to lepiej je rozwiązywać innymi metodami niż np. w przypadku klasycznego problemu eliminacji Gaussa, udoskonalonego np. w metodzie Doolittle’a lub eliminacji Jordana. W przypadku powtarzających sie tych samych sekwencji obliczeń, można je niekiedy uprościć wykonując takie obliczenia tylko raz. Domyślam się, że cloud computing niewiele tutaj to ułatwia – i tak trzeba ten problem zapisać w jakimś języku, i zapsać go w taki sposób, aby obliczenia dało się wykonać efektywnie.
A zatem na koniec – może się okazać – że “cloud computing” może być kolejnym sposobem na przekonanie firm do outsourcing-u, nie będzie natomiast adresować złożonych problemów obliczeniowych, chociażby takich, jak optymalizacja nieliniowa. Zwykle w tym miejscu była poezja, będzie tak i dziś – wprawdzie nie moja, ale nawiązuję trochę do określenia “buzz word”. Tekst pochodzi z repertuaru Izabeli Trojanowskiej, i jest już dziś trochę, jak myślę – zapomniany.

Brylanty

Nie lubię wielkich samochodów,
Limuzyn z eleganckich sfer,
Wykładanych dywanem schodów,
Które tłumią najmniejszy szmer,
Gdy wspinasz się po nich.

Nie lubię ważnych rezydencji
I przyjęć w nich a la fourchette,
Sekretarzy i ekscelencji,
Doskonałych od A do Zet
I sztywnych tak samo.

Brylanty, bażanty,
Smakołyki wprost do ust.
Buzery, bajery,
To cokolwiek za dużo na mój gust.

Nie lubię mężczyzn ustawionych,
Z przepustką ważną aż na top.
Jeśli już, wolę tych szalonych,
Tych, co nigdy nie mówią “stop”,
Gdy kochać raz zaczną.

(piosenki posłuchać można pod http://szyja.wrzuta.pl/audio/5JOWaFmxNQ9/izabela_trojanowska_-_brylanty )

Thierry, czyli kłopoty z wirusami

Coraz bardziej nabieram przekonania, że przy ciągle wzrastającej liczbie wirusów oraz ilości spamu rozsyłanego w Sieci, zarządzanie samym Internetem a nawet korzystanie w miarę bezpieczny sposób z komputera stanie się wkrótce trudniejsze niż jeszcze 10 czy 15 lat temu. Np. jak spojrzę na wielkość wykorzystanej pamięci przez WebScanX (składnik systemu McAfee) wielkość tan jest na poziomie kilkudziesięciu MB (w tej chwili np. ok 56 M), z kolei McShield wykorzystuje ok 30 M. Co to znaczy zatem ? Może się okazać, że przy takim wzroście obciążenia (warto pamiętać, że włączona aktywna kontrola antywirusowa sprawdza m.in. każdy dostęp do pliku przy jego otwarciu, co np. spowalnia rozruch systemu) nawet stosunkowo szybkie komputery będą coraz wolniej się uruchamiać i coraz wolniej pracować. Nie musi to być wprawdzie odczuwalne od zaraz, ale może to w dłuższym okresie stanowić problem. Ja zresztą sam miałem okazję przekonać się, jakim obciążeniem dla nieco starszego systemu jest nowoczesny program antywirusowy. Mniej więcej 5 lat stałem się użytkownikiem notebook-a IBM R-40e. Ten komputer – jak na ówczesne czasy miał przyzwoite parametry (miał m.in. 256 MB) pamięci operacyjnej. Na “dzień-dobry” miał wgraną wersję testową oprogramowania Norton Anti-Virus. Z początku wszystko działało bez zarzutu – ale po kilku latach eksploatacji (w tym 4 aktualizacje do nowszych wersji) okazało się, że komputer uruchamia się znacznie wolniej. I – rzeczywiście – po rozbudowie pamięci do 1 GB wszystko wróciło do normy, choć nie wiem jak ten system będzie działał po kolejnym upgrade. Jest jeszcze jedna rzecz, o której chyba trzeba wspomnieć. Ze względu na to, iż współczesne zagrożenia sieciowe stają się coraz bardziej wymyślne, zdarzają się też sytuacje, w której wykorzystując odpowiednio spreparowany plik (np. archiwum .zip lub .rar) można “oszukać” zabezpieczenia programów antywirusowych. Świadczą o tym m.in. informacje które odnaleźć można w witrynie securityfocus.com autorstwa Thierry Zollera z Luksmeburga (zob. http://www.securityfocus.com/archive/1/503173/30/120/threaded , http://www.securityfocus.com/archive/1/503075/30/150/threaded lub http://www.securityfocus.com/archive/1/502820 ). Szczególnie niekiedy dziwi to, iż nawet same firmy dostarczające tych narzędzi (tak, jak w przypadku Avast) nie obiecują, że program zostanie “załatany” tłumacząc sie tym, że problem dotyczy dość specyficznych sytuacji i nie ma potrzeby dokonywania tych poprawek. Jak to wpłynie na stabilność przyszłych programów antywirusowych – nie wiem. Póki co jednak widać, że rzeczywiście częste nawigowanie wśród stron o niepewnym pochodzeniu może przynieść trudne do przewidzenia skutki (przynajmniej dla komputera).
No dobrze, skoro ma być poezja, niech będzie (wiersz powstał dość dawno – z inspiracji wirusa  ILOVEYOU – zob. http://pl.wikipedia.org/wiki/ILOVEYOU ).

 

Kto dziś dostał list miłosny
To typowe jest na wiosnę
Tylko że czasami listy teraz
Mają formę elektronicznego maila
I niekiedy zdarza się
Że z niewinnym załącznikiem
Dostajesz takiego paskudnego
Wirusa programistycznego
Potem bardzo trza się starać
By znów wszystko mogło działać
Tak bywa wiosna czasami
Między nami informatykami

Beata, czyli Za zdrowie Pań

Wprawdzie mamy kryzys, ale – jak pamiętam, od ładnych już paru lat istnieje na rynkach finansowych przekonanie, że 8 marca zawsze są spadki. I cóż się okazało – że dostaliśmy od losu prezent, bo może – udało się ten trend odwrócić. Dlaczego – proszę spojrzeć na wykres (zaczerpnąłem z serwisu money.pl). Chociaż 9 marca były wprawdzie spadki, ale jeszcze w piątek 6 – były jednak wzrosty, i to większe niż w poniedziałek. Czyli – wyglądałoby na to – że łącznie nam się poprawia. I rzeczywiście, jak spojrzeć na wykres (od 28 lutego 2009 do 13 marca) to  mamy lekki trend wzrostowy. Czy on się utrzyma – inna sprawa – ale może warto mieć nadzieję.  Więcej o każdej z sesji (czyli z dnia 6  i 9 marca można znaleźć pod
http://www.investstock.pl/index.php?module=Pagesetter&func=viewpub&tid=5&pid=782 oraz
http://www.investstock.pl/index.php?module=Pagesetter&func=viewpub&tid=5&pid=771 )

Moneypl_WIG_28lutego2009

Tak żeby skomentować to fachowym okiem – postanowiłem zacytować tu jeszcze tekst z dodatku do Gazety Finansowej zatytułowany “Rzeczpospolita Babska”. W tekście od redakcji zatytułowanym, “Słowem wstępu” czytamy między innymi 

“Gazeta Finansowa już po raz czwarty przygotowała dodatek “Rzeczpospolita Babska”. Przedstawiamy tam 50 najwybitniejszych kobiet polskiego biznesu. redakcja chciała je uhonorować mianem najbardziej przedsiębiorczych kobiet biznesu. Pomimo stereotypów, wedle których kobiety postrzegane są nadal często jako gospodynie domowe, słabe, bezradne i delikatne osóbki, dają sobie świetnie radę i pną się ku górze, ciężko pracując zarówno na wizerunek swój jak i firmy. Rola kobiet w biznesie jest obecnie w naszym kraju coraz większa. I nikogo nie powinno to dziwić, gdyż Polski to kobiety wyjątkowe. Są często lepiej wykształcone niż mężczyźni, bardzo dobrze zorganizowane i odpowiedzialne. Są świadome swoich możliwości i konsekwentnie realizują ambitne plany, również te zawodowe, powiedziała Dorota Soszyńska, właścicielka firmy Oceanic Poland. Sytuacja kobiet w biznesie ulega z roku na rok poprawie. Coraz więcej pań zajmuje najwyższe stanowiska kierownicze, coraz więcej zostaje także przedsiębiorcami i zakłada własne firmy. Dzisiejsze kobiety są wykształcone, mają predyspozycje i umiejętności wpisujące się w nowoczesne zarządzanie. Osiągają sukcesy w branżach wydawać by się mogło typowo męskich – powiedział Wojciech Kiciński, prezes zarządu Nordea Bank Polska.”
I – tak z braku lepszej puenty może trzeba by tu przytoczyć tekst “Za zdrowie Pań” w wykonaniu Edwarda Hulewicza (piosenki można posłuchać pod
http://zen11.wrzuta.pl/audio/xvB8LJDUwc/edward_hulewicz_-_za_zdrowie_pan )

Panowie! Zdrowie pań!!!

Za zdrowie pań, za zdrowie,
szampana pijmy aż do dna, panowie!
Za zdrowie pań, za zdrowie,
jedyny toast, który niechaj wiecznie trwa.
Dziewczyny treścią są naszych snów,
dziewczyny dobre, dziewczyny złe.
Chociaż dziewczyna, marny to puch,
bez dziewczyn nie ma życia, życia nie ma, nie!
Za zdrowie pań, za zdrowie,
spełnijmy toast jeszcze raz, panowie!
Niech wiedzą, że bez nich każda chwila,
to utracony już na wieki wieków czas.
Za zdrowie pań, za zdrowie,
szampana pijmy aż do dna, panowie!
Za zdrowie pań, za zdrowie,
dla dziewczyn niech w szampanie
dziś utonie świat!
Dziewczyny treścią są naszych snów,
dziewczyny dobre, dziewczyny złe.
Chociaż dziewczyna, marny to puch,
bez dziewczyn nie ma życia, życia nie ma, nie!
Za zdrowie pań, za zdrowie,
jedyne, za co warto pić, panowie!
A jeśli kto nie chce, lub nie może,
to nie zmuszamy, ale jakże przykro nam!
Za zdrowie pań, za zdrowie,
jedyne, za co warto pić, panowie!
A jeśli kto nie chce, lub nie może,
to nie zmuszamy, ale jakże przykro nam!

Janusz, czyli jak odnaleźć się w kryzysie

Myślę, że dzisiaj, skoro temat taki gorący, warto może dorzucić swoje trzy grosze do dyskusji o naszych polskich  finansach. Jako kanwę pozwoliłem sobie przytoczyć fragmenty tekstu z Gazety Finansowej “Banki w Polsce chcą zarobić na  kryzysie ” który ukazał się w numerze 3/2009 tego tygodnika na stronach 4-5 autorstwa Janusza Szewczaka (zob.
http://www.gazetafinansowa.pl/index.php/wydarzenia/kraj/1767-banki-w-polsce-chc-zarobi-na-kryzysie.html )

“Chcą poręczeń
Sytuacja sektora bankowego w Polsce była do wczoraj wyśmienita. Wysokie zyski banków w Polsce przekroczyły już grubo 50  mld zł w ostatnich kilku latach. Nie wszystkie jednak wykorzystały te środki na wzmocnienie kapitałowe. Co się więc  stało, że banki do niedawna tak dobrze prosperujące, tak nagle i zgodnym chórem, w sposób bezpardonowy zaczęły domagać  się rządowych gwarancji i poręczeń oraz pieniędzy polskich podatników. Domagają się dalszych ułatwień w operacjach SWAP i  REPO w ramach relacji z NBP, obniżenia rezerw obowiązkowych z 3,5 proc. do 2 proc., co dawałoby im zastrzyk ok. 9 mld zł  żywej gotówki.

Nowy zastrzyk
Domagają się także przedterminowego zakupu 10-letnich obligacji przez NBP, wyemitowanych jeszcze w 2002 r., co również  dałoby zasilenie 8 – 9 mld nowych środków. Łącznie byłby to zastrzyk nowych środków 16 – 18 mld zł. Bardzo wątpliwe, aby  większość tych środków została przeznaczona na akcję kredytową. Dlaczego więc, skoro sytuacja banków w Polsce jest tak  dobra, tak gwałtownie domagają się one pomocy od państwa i polskich podatników, zwłaszcza banku centralnego?

Nadmuchały bańkę
Banki grożą, że nie będą wykonywać swoich podstawowych obowiązków wobec polskiej gospodarki, zwłaszcza prowadzenia akcji  kredytowej, a mają przecież już dziś nadpłynność rzędu 30 mld zł i ciągle rosnące znaczące zyski. Banki same nadmuchały  bańkę spekulacyjną, lewarując kredyty, a obecnie same gwałtownie przykręciły śrubę. A jeszcze kilka miesięcy temu  zagraniczne banki komercyjne, działające w Polsce na potęgę, zwłaszcza latem 2008 r. transferowały gotówkę do swych  macierzystych centrali pod postacią dywidend, otwierania lokat w zagranicznych centralach i to na łączną kwotę 10 – 12  mld zł.

Zgubna pazerność
KNF niczego się nie dopatrzyła, choć kryzys na świecie trwał już wówczas w najlepsze. Dopiero jesienią, pod koniec 2008  r. KNF zażądała raportowania transferu gotówki do zagranicznych centrali, gdy było już po wszystkim. A może skala  popełnionych przez banki i ich zarządy błędów, które ślepo wykonywały polecenia centrali, może pazerność była zbyt  wielka, a odpowiedzialność zbyt niska?

Progi bezpieczeństwa
Popełnione błędy, zaniechania poszczególnych banków w ich prognozach i rekomendacjach oraz polityka niekorzystnie  wpłynęły na strukturę bilansową banków, czyli niekorzystną strukturę aktywów i pasywów instytucji finansowych  działających w Polsce. Szybki wzrost akcji kredytowej w latach 2007 – 2008 przekroczył progi bezpieczeństwa. Gdy pożyczki  przedsiębiorstw wzrosły o ok. 100 mld wartość kredytów o 241 mld zł, dziś na lokatach mamy 332 mld zł. O 70 mld więcej  niż w 2008 r., a rzekomo brakuje bankom pieniędzy.

Lawinowy napływ
Kredyty przekroczyły depozyty o ok. 60 – 80 mld zł. Depozyty ludności i przedsiębiorstw w 2008 r. wyniosły ok. 490 mld  zł, a kredyty ok. 610 mld zł. Znaczna część tej akcji kredytowej była dokonywana w walutach zagranicznych, np. w sferze  kredytów hipotecznych aż 80 proc. to kredyty we franku szwajcarskim. Kredyt wykazywał więc nominalny wzrost, ale on  wynikał głównie z gwałtownego osłabienia się złotego. Co gorsze, wzrost akcji kredytowej był finansowany głównie przez  pieniądz zagraniczny i lawinowo napływającą do banków gotówkę z funduszy inwestycyjnych, czyli ok. 30 mld zł. Udział  zobowiązań zagranicznych przekroczył 20 proc. sumy bilansowej banków.”

i trochę dalej

“Kto komu nie ufa?
Sejm w ostatnich dniach w trybie ekspresowym uchwalił ustawę o pomocy dla sektora finansowego. Między innymi zawiera ona  dodatkowe preferencje i gwarancje, dotyczące sprzedaży skarbowych papierów wartościowych na specjalnych warunkach.  Przygotowywana jest ustawa o dokapitalizowaniu banków w Polsce. Jeśli tak dobrze dzieje się bankom, to po co taka ustawa?  NBP bierze na siebie dodatkowo wszystkie ryzyka biznesowe oraz pełną gwarancję, jako ubezpieczycie poręczeń. A przecież  nie może prowadzić działalności komercyjnej. Banki apelują do rządu i do Banku Centralnego: „Zróbcie coś, bo my już nie  mamy zaufania sami do siebie”. Czy w takim razie my możemy mieć zaufanie do banków?

Pompowanie pieniedzy
Tymczasem bankowcy siedzą na górze pieniędzy i wolą wycofać się z kredytowania niektórych sektorów czy kredytowania w  obcej walucie. Mają 30 mld żywej gotówki nadpłynności do tego może dojść 16 – 17 mld z obligacji i rezerwy obowiązkowej.  W krajach Eurolandu, gdzie banki są w większości własnością narodową, podmiotów narodowych lub wręcz własnością  publiczną, np. w Niemczech, Austrii czy Skandynawii, poradzono sobie dosyć szybko z oporem i egoizmem banków. Pompowanie  pieniędzy do sektora bankowego obwarowano licznymi warunkami, zobowiązaniami nawet na piśmie.

Twarde ultimatum
Władze krajów, które pomagały bankom, przejęły znaczną część udziałów w tych bankach, a nawet znacjonalizowały część z  nich. Ograniczono premie menedżerów, zaangażowano wymiar sprawiedliwości do badania pewnych wątków spraw. Postawiono  również twarde ultimatum: albo będziecie udzielać kredytów realnej gospodarce, albo was znacjonalizujemy. Celem  interwencji było przełamanie zastoju na rynku międzybankowym i pomoc realnej gospodarce.

Pierwsze kroki
NBP, jeśli chce pomóc realnej gospodarce, powinien przede wszystkim, podobnie jak EBC, gwałtownie obniżyć stopy  procentowe. Zanim zacznie wspomagać zagraniczne banki komercyjne działające w Polsce, tym bardziej, że podmioty  dominujące, centrale i ich właściciele zobowiązali się do spełniania swych spółek córek jeszcze w umowach  prywatyzacyjnych. KNF dysponuje taką wiedzą i w ogóle z tych instrumentów nie korzysta.”

No dobrze, skoro ma być poezja, niech będzie, jeszcze czasami udaje mi się coś z siebie wykrzesać

Mamy znów kryzys w finansach publicznych
I choć jest to problem powszechny
Może warto pomyśleć zawczasu
Co by tu zrobić z resztką kasy
Która jednak ludziom wielu została
I może by się w przyszłości przydała
Gdyby trzeba było płacić więcej
Za ropę, metale lub gaz ziemny
Lub gdyby wskutek złych okoliczności
Trzeba było porobić oszczędności
I wzrosłoby bezrobocie oraz inflacja
Tak, że dotknęłaby nas stagflacja
I chronić w końcu by było trzeba
Zbyt wielu ludzi przed brakiem chleba
Spróbujmy zatem realnie policzyć
Czy do pierwszego nam chociaż wystarczy
I czy gdy znów przyjdzie wiosna
Zieloną nadzieję będzie znów mieć można
Tak, aby potem tak pod koniec roku
Będzie sie dało myśleć bez strachu
Że następny rok będzie może lepszy
I da się może znowu pisać poezję 

Jerzy, czyli dlaczego jest tyle hałasu na początku

Zapewne domyślacie się, o czym będzie ten kawałek. Rzeczywiście, będzie o tym jak to jest na początku. Tak jest co roku – zaczyna się już parę dni przed godziną 0. Już TO słychać. W TĘ NOC nikt nie będzie spał spokojnie. No – przynajmniej do pierwszej moze drugiej w nocy. Potem już się wszystko uspokaja, ale – jak wiecie – nie dla wszystkich. Są i tacy szczęśliwcy, którzy łapią się na imprezy po Sylwestrowe, tym bardziej, że to dopiero początek Karnawału. I pomyśleć, że również nasz Wszechświat miał podobne korzenie (choć nie wiem, czy można mówić w takim kontekście o korzeniach). Niejako na dowód przytoczę Wam tu fragment pasjonującej skądinąd książki jednego z największych fizyków naszych czasów, Stehena W.Hawkinga (cytuję tu za tłumaczeniem Piotra Amsterdamskiego, książkę tę pod tytułem “Krótka historia czasu. Od Wielkiego Wybuchu do Czarnych Dziur” wydało w 1990 r. wydawnictwo Alfa, cytowany zaś fragment pochodzi z rozdziału ósmego “Pochodzenie i los Wszechświata”, strony od 113 do 115)

“W chwili Wielkiego Wybuchu wszechświat miał zerowy promień, a zatem nieskończenie wysoką temperaturę. W miarę jak wzrastał promień wszechświata, temperatura promieniowania spadała. W sekundę po Wielkim Wybuchu wynosiła około 10 miliardów stopni. Temperatura we wnętrzu Słońca jest około tysiąca razy niższa, podobnie wysoką temperaturę osiąga się natomiast w wybuchach bomb wodorowych. W tym czasie Wszechświat zawierał głównie fotony, elektrony i neutrina (niezwykle lekkie cząstki oddziałujące tylko za pośrednictwem sił słabych i grawitacyjnych), ich antycząstki oraz niewielką liczbę protonów i neutronów. W miarę rozszerzania się wszechświata i spadku temperatury malało tempo produkcji par elektron-antyelektron, aż wreszcie stało się wolniejsze niż tempo anihilacji. Wtedy większość elektronów i antyelektronów uległa anihilacji tworząc fotony; ocalały tylko nieliczne elektrony. Natomiast neutrina i antyneutrina nie zniknęły, ponieważ oddziaływują ze sobą zbyt słabo. Powinny one istnieć po dziś dzień, gdybyśmy potrafili je wykryć, uzyskalibyśmy wspaniałe potwierdzenie naszkicowanego tutaj obrazu wczesnej historii Wszechświata. Niestety, neutrina te mają zbyt niską energię, by można je było wykryć bezpośrednio. Jeśli jednak mają małą, lecz różną od zera masę, jak to sugeruje nie potwierdzony eksperyment rosyjski z 1981 roku, moglibyśmy je wykryć pośrednio. Mianowicie mogą one stanowić część „ciemnej materii”, której grawitacyjnie przyciąganie jest dostatecznie silne, by powstrzymać ekspansję Wszechświata i spowodować jego skurczenie się.
Mniej więcej w sto sekund po Wielkim Wybuchu temperatura spadła do miliarda stopni; taka temperatura panuje we wnętrzach najgorętszych gwiazd. W tej temperaturze protony i neutrony mają zbyt małą energię, aby pokonać przyciągające siły jądrowe, zatem zaczynają się łączyć tworząc jądro deuteru (ciężkiego wodoru), zawierającego jeden proton i jeden neutron. Jądra deuteru łączą się z kolejnymi protonami i neutronami; w ten sposób powstają jądra helu, składające się z dwóch protonów i dwóch neutronów, oraz niewielka ilość cięższych jąder, między innymi litu i berylu. Można obliczyć, że według standardowego modelu Wielkiego Wybuchu około jednej czwartej wszystkich protonów i neutronów zużyte zostaje na produkcję helu oraz cięższych pierwiastków. Pozostałe neutrony rozpadają się na protony, będące jądrami zwykłych atomów wodoru.
Ten scenariusz rozwoju Wszechświata w jego najwcześniejszym okresie zaproponował George Gamow w słynnej pracy z 1948 roku, napisanej wspólnie z jego studentem Ralphem Alpherem. Gamow, obdarzony autentycznym poczuciem humoru, przekonał fizyka jądrowego, Hansa Bethego, by ten dodał swe nazwisko do listy autorów, dzięki czemu brzmiała ona: „Alpher, Bethe, Gamow”, prawie tak, jak trzy litery greckiego alfabetu: alfa, beta, gamma, co wyjątkowo dobrze pasuje do pracy o początkach Wszechświata! W tej pracy Gamow i jego współpracownicy przedstawili godną uwagi hipotezę, iż promieniowanie pochodzące z wczesnego, gorącego okresu ewolucji Wszechświata powinno istnieć po dziś dzień., choć jego temperatura została zredukowana do paru stopni powyżej zera bezwzględnego. Właśnie to promieniowanie odkryli Penzias i Wilson w 1965 roku. W czasach, kiedy Alpher, Bethe i Gamow pisali swoją pracę, niewiele jeszcze wiedziano o reakcjach jądrowych między protonami i neutronami. Dlatego ich obliczenia wzajemnych proporcji różnych pierwiastków we Wszechświecie nie były bardzo dokładne. Od tego czasu obliczenia te wielokrotnie powtórzono, uwzględniając postęp naszej wiedzy na temat reakcji jądrowych, i obecnie zgadzają się znakomicie z obserwacjami. Co więcej, jest bardzo trudno wytłumaczyć w jakikolwiek inny sposób, dlaczego właśnie tyle helu istnieje we Wszechświecie. Wobec tego mamy niemal pewność, że nasz obraz rozwoju Wszechświata jest poprawny, przynajmniej od jednej sekundy po Wielkim Wybuchu.”

No dobrze, już wiemy od czego się to zaczęło, na pewno pasjonująca jest dalsza historia Wszechświata, ja jednak powrócę do tej naszej przyziemnej perspektywy, i – choć będzie ujęte to poezją – będzie traktować o prozie życia, która może nie dorasta do pięt Ogromowi Wydarzeń sprzed miliardów lat, ale mimo wszystko trochę ilustruje nasze realia. Zresztą ten kawałek jest mój, choć jeszcze nie doczekał się premiery.

Gdy już wypito całego szampana
Skończyła się też zabawa nad ranem
Pora pomyśleć o dniach codzienności
Kiedy tak budzisz się nie bez złości
Że pora będzie do pracy znów wstawać
I na chleb powszedni dalej zarabiać
I może jednak uda się już za rok cały
Znów sobie pozwolić na więcej zabawy
Choć potem znów przyjdzie ten dzień
Gdy rankiem pomyślisz – To już drugi styczeń …

Choć może wyda się to Wam dziwne, ale skojarzył mi się tu jeszcze jeden tekst (piosenka “Dust in the Wind” w wykonaniu Kansas – tłumaczenie można znaleźć w pipol.pl pod adresem http://www.pipol.pl/display.php?sig=kansas-dustinthewind )

Pył na wietrze

Zamykam oczy tylko na chwilę i chwila przemija
Wszystkie moje marzenia, przesuwają się przed mymi oczyma

Pył na wietrze
Wszystkim czym są, to pyłem na wietrze

Ta sama stara piosenka, jak kropla w niekończącym się morzu
Wszystko co robimy, to chowanie głowy w piasek aby nie widzieć

Pył na wietrze
Wszyscy jesteśmy pyłem na wietrze

Nie zwlekaj, nic nie trwa wiecznie, tylko ziemia i niebo
Wszytko przemija, twoje pieniądze nie kupią jeszcze jednej minuty

Pył na wietrze
Wszyscy jesteśmy pyłem na wietrze
Wszystko jest pyłem na wietrze

Może zatem lepiej wstać wcześnie rano 2 stycznia, pójść do pracy, a po drodze pomyśleć – “To już drugi styczeń…”