informacje



piątek, 24 grudnia 2021

Mulisty smak karpia, ziemisty barszczyk i zapach jak po deszczu

 Gdy już zasiądniecie do wigilijnej kolacji, przełamiecie się opłatkiem i zabierzecie się za pałaszowanie dwunastu dań, to wówczas być może niektórych z was zastanowi jedna rzecz, o jakiej nie było mówione w szkole. Jeśli nawet dobrze obczyszczony karp smakuje trochę mułem z dna stawu, to czym właściwie smakuje?

Choć zapach jaki wydziela gleba, i jaki wydziela się z mulistych osadów, był znany od zarania dziejów, pierwsze badania na ten temat pojawiły się dopiero w XIX wieku, gdy to postanowiono sprawdzić co odpowiada za ten przyjemny zapach, jaki powstaje na początku deszczu, zwłaszcza po kilku dniach suchych. Po destylacji z parą wodną dużej ilości gleby odzyskano olejek eteryczny, składający się głównie z prostych terpenoidów. Wbrew oczekiwaniom nie pochodziły one z roślin, lecz były wytwarzane przez bakterie żyjące w glebie i wodzie.


 

Wszystkich produktów rozkładu roślin i metabolizmu bakterii jest bardzo wiele, ale w większości gleb i wód decydujące znaczenie mają dwa składniki występujące najczęściej - geosmina i 2-metyloizoborneol (MIB). Są to proste terpenoidy, które w czystej postaci są oleistymi cieczami, rozpuszczalnymi dobrze w tłuszczach a słabo w wodzie. Ludzki nos jest jednak mimo to bardzo silnie wyczulony na ich zapach, wyczuwając go nawet w stężeniu 400 części na milion. 

Substancje te są jednymi z ubocznych metabolitów licznych gatunków bakterii. Geosminę wytwarzają  głównie cyjanobakterie, będące organizmami fotosyntezującymi, występującymi głównie w wodach powierzchniowych i w wierzchniej warstwie wilgotnej gleby. Jej stężenie rośnie podczas zakwitów glonów i sinic. MIB wytwarzają także cyjanobakterie, ale ponadto też bakterie Streptomyces, znane jako glebowe patogeny roślin wywołujące choroby korzeni, na przykład gnicie bulw ziemniaków. Z warzyw, które mogą pochłaniać geosminę w trakcie wzrostu, często staje się wyczuwalna w korzeniach czerwonego buraka. W tym przypadku ziemisty zapach nie musi oznaczać porażenia przez bakterie.

Nie więc zaskakujące, że jesteśmy tak wyczuleni na ziemisty zapach - bakterie wytwarzające te związki mogą też tworzyć toksyny oraz być chorobotwórcze. Dlatego ewolucja przystosowała nas do wyczuwania, że jedzenie zostało skażone ziemią lub brudną wodą. Tego, że zechcemy zjadać rybę wylegującą się w mule, chyba nie przewidziała.

Związki te dość dobrze rozpuszczają się w tłuszczach, toteż tłuste ryby będą je akumulowały. Badano to już dla różnych gatunków. Jeśli woda w stawie zawierała geosminę lub MIB to w ciągu kilku dni ryba nabierała pewnego wyczuwalnego stężenia. Bakterie i glony nie musiały być przez rybę zjadane, wystarczył kontakt z wodą.  

Jak sobie z nimi poradzić? 

Najlepiej kupić ryby o dobrym smaku. Stężenie geosminy w rybie bardzo mocno zależy od wody w stawie, a jej jakość od gleby w jakiej staw był wykopany. Im bardziej torfiasta i zasobna w próchnicę gleba, tym więcej geosminy było w wodzie i w rybach. Częściowo można na to wpływać manipulując odczynem wody i warunkami natlenienia. Najważniejszym jednak sposobem usuwania niepożądanych zapachów, używanym na świecie też do małży i omułków, jest "płukanie" - umieszczenie żywej ryby w wodzie czystej. Rozkład geosminy i MIB w rybie następuje dość szybko, zwykle wystarczą dwa dni aby zapach stał się akceptowany. Im bardziej tłusta ryba tym wolniej to następuje.

A jeśli mamy już gotowa, ubitą rybę i podczas oprawiania wyszło, że wyjątkowo ten osobnik daje mułem trochę za mocno? Cóż, sprawdza się tu stara, dobra formuła - przyrządzić rybę w kwaśnej zalewie. Ma to podstawy naukowe. Zarówno geosmina jak i MIB ulegają w kwaśnych warunkach rozkładowi. Produkty rozkładu są bezwonne lub mają zapach kamforowo-żywiczny, ale dużo słabiej wyczuwalne. W publikacji badającej wpływ różnych kwasów na substancje w wodzie stwierdzono, że kwas cytrynowy rozkłada je łatwiej i w mniejszych stężeniach niż ocet. Wydaje się, że wynika to stąd, że jego roztwory są po prostu bardziej kwaśne. Bardzo łatwo rozkładał się metyloizoborneol, już od niewielkich dodatków kwasu. Geosmina była na rozkład bardziej oporna. [1]

Mogłoby to tłumaczyć czemu sposoby zmniejszania woni ryby czasem działają dobrze a czasem nie za bardzo. Ilości tych substancji w rybie mogą być różne, zależnie od warunków w stawie. Jeśli w karpiu dominuje MIB, to już niewiele soku z cytryny wystarczy aby zapach się zmniejszył. Jeśli dominuje geosmina, to kwasu potrzeba więcej. Ponadto im bardziej tłusta jest ryba, tym trudniej zachodzi rozkład, bo tkanka jest wolniej przenikana prze rozpuszczony w wodzie kwas. Stąd w jednym roku tak samo przyrządzony karp będzie smakował inaczej niż udało się w poprzednim roku.

------

[1]  https://www.researchgate.net/publication/275954147_Reduction_of_off-flavour_compounds_geosmin_and_2-methylisoborneol_using_different_organic_acids

https://journals.asm.org/doi/10.1128/AEM.02250-06

piątek, 17 grudnia 2021

Tajemnica zdjęcia 51 - kto odkrył budowę DNA?

Rozwój nauki z czasem obrasta w swoje popularne mity. Kultura operująca na gustach niespecjalistów siłą rzeczy musi upraszczać pewne procesy i pomijać szczegóły. Czasem popularny odbiór zmienia się, czy to za sprawą dobrego popularyzatora, czy zmiany świadomości odbiorców. O ile dawne filmy i książki na temat Marii Curie-Skłodowskiej koncentrowały się na aspekcie naukowym, a obyczajowy poruszały w kontekście jej problemów z tym, aby być jako kobieta uznawana za samodzielną odkrywczynię, to teraz zauważalne staje się przesunięcie uwagi na wątki obyczajowe, zwłaszcza na sensacyjny romans.
Wraz ze zmianą publiczności może się więc zdarzyć, że jeden mit o nauce, wynikły z uproszczenia i pominięcia szczegółów, zostanie zastąpiony innym, powstałym z tych samych przyczyn. Mam wrażenie, że w ostatnich latach coś podobnego następuje wokół historii odkrycia struktury DNA, a zwłaszcza udziału w nim Rosalind Franklin, utalentowanej krystalografki, która jako pierwsza miała wykonać dokładne zdjęcie, pozwalające na potwierdzenie struktury tego związku. A wrażenie to wynika stąd, że w szczegółach historia ta jest nieco bardziej skomplikowana...

 Rzeźba DNA w Cambridge

Jakkolwiek cenię youtubowy kanał Uwaga Naukowy Bełkot i ogółem różne rzeczy jakie robi Dawid Myśliwiec, to nie wszystkie filmy mi się w stu procentach podobają. Mamy chyba trochę różne podejście do myślenia o popularyzacji i dlatego z mojego punktu widzenia czasem trafiają się tam momenty upraszczania nie tylko tak bardzo jak się da, ale też i za bardzo. Nikt nie jest idealny, a ponadto jeszcze się taki nie narodził, co każdemu by dogodził. Prosta sprawa.

Tknął mnie jednak jego niedawny materiał "...a zaszczyty zebrali mężczyźni - efekt Matyldy". 

Zgłębianie historii nauki i odsłanianie jej mało znanych elementów to rzecz generalnie chwalebna. Tyczy się to też ujawniania roli pomniejszych współtwórców sukcesu, którym nie zdarzyło się trafić do podręczników z wielu różnych powodów. Popularne rozumienie historii cierpi bowiem na bardzo ciężką odmianę Syndromu Bohatera, w ramach którego uwaga skupiana jest na jednej osobie, znanej z nazwiska, której to przypisuje się decydującą rolę w zdarzeniu historycznym. W ramach tego gumkuje się inne osoby dookoła, aby nie było kolejnych pretendentów do tytułu Bohatera Który Zmienił Historię. W związku z czym potem trudno jest zrozumieć jak on tego dokonał, jak zaczął, jak wpadł, i dorabia mu się pocieszne legendy o dziwnym zbiegu okoliczności, lub jakimś pasującym szczególe z dzieciństwa. I potem w popularnym rozumieniu języczek u wagi historii przeskakuje z rąk jednego herosa do drugiego i tak zmieniają się dzieje.

Przyczyn skupienia na jakiejś osobie może być dużo - ktoś był szybszy z pochwaleniem się prasie; ktoś był starszy stopniem, ktoś umarł później, ktoś miał już wcześniej więcej tytułów i godności, kogoś zdecydowano się wystawić na świecznik dla propagandy. A czasem ktoś wyróżniał zestawem  cech płciowych bardziej w owym czasie pochwalanym i docenianym per se. I o takich przypadkach mówi Dawid w materiale. Odkrywczyni, która miała pecha i jej odkrycia przypisano facetom dookoła. Jak chociażby Bell Burnell, doktorantka astrofizyki, która pierwsza zauważyła sygnały od pulsarów, za co nagrodę Nobla otrzymał jej promotor. A ona nie, bo była tylko studentką. Było w zwyczaju uznawać, że za odkrycie odpowiadał zlecający badania szef zespołu, który potem opublikował zebrane dane a nie prowadzący je student. Jest to jednak ostatecznie no fair, dlatego Burnell otrzymała po latach nagrody honorujące jej odkrycia, bo nic tak dobrze nie ściąga brakującej kiedyś uwagi, jak jakaś wysoka nagroda. 

Kolejnym takim przypadkiem była Rosalind Franklin, która prowadziła badania nad strukturą DNA. Wedle narracji Dawida, Franklin przybyła do King's College aby zacząć badania nad DNA. W tym samym czasie (?) badaniami zajął się Wilkins, co było dla obojga zaskoczeniem i stało się przyczyną sporów. Gdy zaś w innym uniwersytecie Watson i Crick zaczęli wymyślać możliwe struktury tego związku, popełniali głupie błędy, które Franklin wyśmiała (przy jakiej okazji?). Następnie w czasie prac wykonała własnoręcznie słynne później zdjęcie 51, przedstawiające obraz dyfrakcyjny DNA. Zostało ono wzięte (jak?) przez Wilkinsa, który bez zgody pokazał je Wilsonowi i Crickowi, a ci na jego podstawie domyślili się prawidłowej struktury związku. Potem cała ta trójka spiskowców dostała Nagrodę Nobla, a Franklin zmarła i do końca życia nie dowiedziała się, że jej zdjęcie i praca przyczyniły się do tego odkrycia...

Tylko że nie.

To która wersja jest prawdziwa?

 Franklin nie była autorką spornego zdjęcia tylko jej doktorant Raymond Gosling. A właściwie to nawet nie do końca jej, bo został on oddelegowany do pracy z nią przez szefa instytutu Wilkinsa. Który zajmował się tym tematem dużo wcześniej niż wszyscy pozostali. I miał jeszcze innych współpracowników. A dane krążyły po laboratoriach i nie było zaskoczeniem, że trafiły w takie ręce. Sprowadzenie tej historii do sporu "Franklin vs. Watson i Crick" powoduje, że nie wiadomo kto się czym zajmował i jak krążyły dane.

Czemu DNA?

Pomysł, że jednostki dziedziczności muszą być zawarte w jądrze komórkowym był dosyć wczesny, pojawił się już pod koniec XIX wieku. Wiadomo było, że proces podziału komórki zaczyna się od zmian jądra i zestalenia jego zawartości w pary skrzyżowanych pałeczek, stąd wynikał wniosek, że informacja o cechach komórki jest zawarta tam a nie gdzieś w cytoplazmie. Kwestią sporną było w jakiej właściwie substancji się ta informacja zawiera. Ponieważ większość masy organizmów stanowią białka, uznawano bardzo powszechnie, że informacja jest zapisana w szeregu aminokwasów w jądrze. Dlatego wykryta już 1869 roku niebiałkowa nukleina była uważana za dodatkową substancję stabilizującą, klej wokół właściwej substancji dziedzicznej. 

W latach 20. Griffith wykazał, że w preparacie z rozbitych na kawałki komórek bakterii złośliwych, zawarty jest "czynnik transformujący", który nadaje dodanym do mieszaniny bakteriom łagodnym cechy złośliwości. Wyglądało to tak, jakby przez roztwór zawierający wszystko co jest w komórce, ulegała przeniesieniu informacja dziedziczności. Kolejni badacze skupili się więc na szukaniu tych dziedzicznych białek, sprawdzając czy występują a to w cytoplazmie, a to w błonie, a to w poszczególnych organellach. Nie był też odosobniony pogląd, że komórki po prostu posiadają mechanizm powielenia wszystkiego co w nich jest, więc informacja o budowie ciałka Golgiego jest zawarta w tym ciałku, a przekazywanie cech podczas podziału komórki polega na przelewaniu się cytoplazmy z organellami.

W 1944 zespół Averty, MacLeod i McCarty opublikował szczegółowe prace, w ramach których sprawdzali która substancja z komórki jest w stanie odtworzyć efekt przekazania cechy, zauważony przez Griffitha. Po miesiącach oddzielania białek, zatężania i wypróbowywania na bakteriach doszli do wniosku, że poszukiwanym czynnikiem jest trochę zapomniany kwas nukleinowy, transformację bakterii można było bowiem przeprowadzić roztworem z jądra pozbawionym białek. Publikacja nie została jednak potraktowana bardzo poważnie i nadal biolodzy szukali białka dziedziczności.

Było wiadomo, że zasadniczo DNA składa się z prostego cukru deoksyrybozy, reszty fosforanowej i czterech amin aromatycznych, dwóch pochodnych puryny i dwóch pochodnych kasantyny. Pozostawało tylko stwierdzić jak to jest ułożone. DNA w warunkach zasadowych tworzyło sól, w której powstawaniu musiały brać udział reszty fosforanowe, więc najwyraźniej spośród trzech miejsc wiązania przynajmniej jedno zostawało wolne. Z badań Levina wynikało, że fosforan jest połączony z cukrem, cukier z aminą a amina nie ma połączenia z fosforanem.   Najprostsza wersja, jaka przychodziła badaczom do głowy, to jednoniciowa przeplatanka: fosforan-cukier-amina1-cukier-fosforan-cukier-amina2 itd. być może w różnej kolejności i być może z informacją zapisaną w tym które składniki, w jakiej kolejności i ile razy z rzędu się powtarzają w tym łańcuchu. 

A może jednak cząsteczka jest rozgałęziona i informacja zapisana była w tym jakiej długości i budowy są poszczególne odgałęzienia, niczym liczby w inkaskim kipu? A może wreszcie cukry i fosforany tworzą jedną, dwie, trzy lub więcej nici, a aminy sterczą na boki? Poszczególne cząsteczki amin miały różne rozmiary więc wydawało się logiczne umieszczenie ich w takim miejscu, że nie będą zaburzały symetrii łańcucha. Nie odpowiadało to jednak na pytanie jak ten schemat jest powielany i co właściwie zachodzi podczas podziału komórki.

1948 -Wilkins podejmuje temat

Na King's College w Londynie powstała w tym czasie nowa jednostka badawcza, mająca łączyć najnowsze techniki badań fizycznych z biologią. Będący szefem tej jednostki John Randall był w tym czasie przekonany, że to DNA jest nośnikiem informacji. Należało to tylko wykazać. Nie mając doświadczenia z pracami na układach biologicznych Randall, który dopiero co oderwał się od badań nad magnetronami do wytwarzania mikrofal, musiał zebrać badaczy, którzy będą w stanie poprowadzić temat. Zespół badawczy mający się zajmować tylko badaniem DNA poprowadził jego zastępca, Maurice Wilkins, w tym czasie ekspert od krystalografii rentgenowskiej. Początkowe eksperymenty z naświetlaniem surowej spermy baraniej, zawierającej dużo chromatyny, pokazały że materiał musi posiadać regularną strukturę, ale jaką, to powinny pokazać dalsze badania. 

Do dobrej jakości wyników trzeba było posiadać dobrej jakości materiał. Dlatego Wilkins skontaktował się w szwajcarskim chemikiem Rudolfem Signerem, który w tym czasie próbował zainteresować tematem badaczy. Przy pomocy bardzo precyzyjnych technik odzyskał on 15 gramów bardzo czystego DNA z grasicy cielęcej, próbkę podzielił na kilka części i wysłał do badaczy. Nowe próbki pozwalały na postawienie dodatkowych hipotez. Roztwór DNA polaryzował światło przechodzące. Badając go Wilkins doszedł do wniosku, że substancja jest zbudowana z włókien, być może odzwierciedlając budowę pojedynczych cząsteczek. 

W tym czasie do zespołu wysłany dostaje świeżo przyjęty doktorant, Raymond Gosling, który okaże się potem ważną postacią tej historii. Przedzielony do Wilkinsa, który zostaje jego promotorem, rozpoczyna wspólne eksperymenty. Stworzenie ładnych, równych kryształków z roztworu DNA nie powodziło się. Krystalizacja dużych i długich cząsteczek jest ogółem dość trudna i wymaga czasem specyficznych warunków. Notowano już przypadki, gdy badana substancja nie chciała tworzyć kryształów w żadnych warunkach; po czym nagle zaczęła w jednym laboratorium tworzyć pewną formę krystaliczną, a następnie z nieznanych przyczyn znów przestała krystalizować, jakby się rozmyśliła. 

Wilkins zauważa jednak, że gdy zagęszcza roztwór, zaczyna on robić się ciągliwy i śluzowaty. W końcu po wielu próbach udaje im się wyciągnąć w gęstego roztworu włókno, zawierające prawdopodobnie wiele równoległych włókienek, zbudowanych zapewne z równoległych cząsteczek substancji. Nie był to ładny, i uporządkowany we wszystkich kierunkach kryształ, ale do zbadania pewnych elementów struktury powinien się już nadać. Cząsteczki były uporządkowane w jednym wymiarze przestrzennym, należało tylko mieć nadzieję, że mają one w tym kierunku jakąś powtarzalną strukturę własną, która rozprasza promienie rentgenowskie w zdefiniowany sposób.

Pierwsze testy prowadziły do otrzymania bardzo niewyraźnych i zaszumionych obrazów. Badana substancja nie zawierała ciężkich atomów a tylko węgiel, tlen, azot i fosfor, więc rozpraszanie promieniowania na składającym się z podobnych pierwiastków powietrzu dawało za duże zanieczyszczenia. Wyssanie powietrza nie było rozwiązaniem, bo w próżni woda w strukturze włókna zacznie wrzeć. Pierwiastkiem o najniższym rozpraszaniu promieni rentgenowskich jest wodór, toteż komorę dyfraktometru wypełniono tym gazem. Teraz należało jedynie uważać, aby aparatura pomiarowa nie wybuchła, bo wodór jest gazem palnym.

1950 - Eksperymenty

Po tylu przeciwnościach w maju 1950 roku Wilkins i Gosling otrzymują pierwsze w miarę wyraźne obrazy, które pokazały  oddzielone plamki refleksów, wskazujących na istnienie powtarzalnych elementów budowy DNA, dzięki którym wiązka włókien nabierała niektórych cech krystalicznych. Czyli wbrew obawom DNA nie był strukturą płaskiej lub trójwymiarowej sieci, lecz raczej nicią złożoną z podobnych wielkością układów podstawowych cząsteczek budulcowych. Zachęcony tym wynikiem Wilkins zaczął zbierać większy zespół. 

Dyfrakcja promieni X na włóknach była jeszcze nie do końca opisana matematycznie, potrzebował więc kogoś, kto pomoże w analizie danych. Kimś takim był Alexander Stokes, który wykonał dodatkowy model matematyczny, mający przewidywać właściwości dyfraktogramów zależnie od symetrii cząstek włókna. To on potwierdził przypuszczenie, nad jakim Wilkins już się zastanawiał, że włókno DNA jest skręcone helikalnie. Wynikało to z symetrii obrazów rentgenowskich. 

Trochę przeoczona została w tym zamieszaniu skromna publikacja Erwina Chargraffa, który badając skład chromatyny z jąder bakterii i zwierząt zmierzył, że w kilku badanych organizmach zawartość amin adeniny i tyminy były podobne lub identyczne, i podobną parzystość daje się zauważyć z guaniną i cytozyną. 


Wiosna 1951 - Konferencja w Neapolu 

Dyfraktogram Goslinga  i Wilkinsa

Wiosną Wilkins zaprezentował na konferencji w Neapolu wyniki wstępnych eksperymentów, prezentując zdjęcie dyfraktogamu na podstawie pierwszych eksperymentów.  Spekulował o helikalnej strukturze i symetrii wskazującej na dwuniciowość. Miał wielu słuchaczy. Wśród nich znajdował się James Watson, biochemik i przez pewien czas badacz ptaków morskich pracujący nad krystalografią białek w Cavendish Laboratory. Temat go zainteresował. Poczynił trochę notatek, ale jak się wydaje nie wsłuchiwał się z należytą uwagą i nie dosłyszał wszystkich danych, w tym sugestii, że cząsteczka składa się z dwóch nici powtarzających kombinację, które musiały być połączone przez słabe oddziaływania. 

Po powrocie do Cavendish Laboratory Watson zainteresował tym Francisa Cricka, fizyka, prywatnie zresztą przyjaciela Wilkinsa. Zapalił się on do pomysłu, że być może uda się określić w jaki sposób organizmy zapisują informacje. Postanowili pójść trochę na skróty i wymyślić w jaki sposób musi być zbudowana cząsteczka. Poprosili szefa o zwolnienie z dotychczasowych prac aby mogli szukać informacji i prowadzić obliczenia. Ich szef, klasyk krystalografii Bragg, też był zainteresowany biomolekułami.



Lato 1951 - Rosalind przejmuje pałeczkę

 W tym momencie szef jednostki Randall postanawia ściągnąć do prac utalentowaną badaczkę Rosalind Franklin, która dopiero co do nich przybyła i początkowo miała zajmować się analizą struktury kolagenu. Pod jej pieczą miał się znaleźć nowy dyfraktometr, który miał osiągać lepszą rozdzielczość. Zamówiono taki sprzęt a potem długo na niego czekano. Rosalind miała formalnie zakończyć poprzednią pracę w Paryżu, ale kończenie spraw się jej przeciągało. Ponieważ to do niej przydzielono nowy sprzęt, to gdy ten w końcu przyszedł, Wilkins nie mógł z niego korzystać. Przez kolejne miesiące 1951 stał w kącie i się kurzył, co ogromnie irytowało badacza. W czerwcu wyjechał o na wakacje, licząc że po nich sprawa się wyjaśni, a w tym czasie przybyła Franklin i szef jednostki badawczej rozdał karty - chemiczka miała przejąć główne prace, nowy sprzęt, doktoranta Goslinga i całą posiadaną próbkę czystego DNA, tak jakby nie za bardzo pytając o to Wilkinsa. Przez to po jego powrocie z wakacji zapanowało zamieszanie informacyjne, doktorant nie wiedział do którego ostatecznie laboratorium należy, a Wilkins był z początku przekonany, że to badaczka podebrała mu temat. Wtedy zaczęły się między nimi kwasy, które trwały przez kolejne miesiące.

Wilkins w tym czasie zajął się badaniami na nowych próbkach DNA ze spermy kałamarnicy, stwierdzając, że obrazy są bardzo wyraźne. Stokes potwierdził, że z danych wynika, że ta forma DNA też powinna mieć strukturę helikalną. Franklin była jednak co do tego sceptyczna. Uważała, że ich odmiana DNA, nazwana strukturą B, jest spiralna w stanie dużego nawodnienia. Natomiast badane przez nią dużo bardziej suche włókno formy A może być proste i zapewne taka forma występowała w żywych komórkach. W charakterystycznym dla siebie pewnym i kpiarskim stylu rozwiesiła nawet na korytarzach nekrolog opisujący śmierć hipotezy helikalnej. 

Jesień 1952 - Wykład Franklin

Jesienią grupa miała już pewne wyniki, które zostały zaprezentowane podczas wykładu omawiającego dotychczasowe efekty badań zespołu biofizyki. Swoją część miała tam też Franklin, która zebrała podstawowe fakty, dodając też trochę swoich interpretacji i podając niektóre dane z początkowych eksperymentów. Historycy nauki wskazują, że bardzo wielu słuchaczy nie doceniło znaczenia ujawnionych wtedy informacji. Gdyby kilka osób poczyniło sobie podczas tego wykładu bardziej szczegółowe notatki, to historia ta mogłaby potoczyć się trochę inaczej. 

Obecny na sali Watson opisywał potem typy i zachowania wykładających, oraz to, że był to kolejny etap pobudzający go własnych prac, natomiast nic nie wskazuje aby zapamiętał, że DNA jest w stanie bez hydrolizy i rozpadu struktury pochłaniać ogromne ilości wody. Zdaniem chemiczki wskazywało to na to, że grupy fosforanowe lub cukier muszą znajdować się na powierzchni cząsteczki i być dostępne dla wody aby zachodziła hydratacja. Zama cząsteczka musiała składać się z dwóch, trzech lub czterech nici. Obok innych podanych wówczas informacji były też już niektóre parametry dyfrakcyjne, pozwalające obliczyć wielkość komórki krystalicznej i odległości między atomami. Tego słuchacze też sobie nie zapisali, a były to krytyczne dane, pozwalające weryfikować różne pomysły.

Watson i Crick proponują pierwszą strukturę

Tymczasem dwaj badacze, którzy zainteresowali się tym tematem, postanowili pójść metodą stosowaną wcześniej przez Paulinga przy pracach nad badaniem struktury białek. Potrzebowali na początek czegoś, co utworzy główny rdzeń cząsteczki i zapewni jej trwałość. Wymyślili więc strukturę w formie nici cukier-fosforan-cukier-fosforan, połączonych ze sobą w stosach i tworzących podwójną prostą wstęgę, z cząsteczkami amin wychodzącymi na boki. Dwie nici były połączone jonowo poprzez reszty fosforanowe oddziałujące z dwóch stron z jakimś kationem. Wybrali tu akurat jon magnezowy, nie wiedzieć czemu. Podekscytowani, że może udało się im wpaść na właściwy pomysł przedstawili model na seminarium doktoranckim, na które zaproszono innych badaczy zajmujących się tematem. Obecna tam też Franklin skrytykowała model. Właściwie to dzisiaj byśmy powiedzieli, że ich zaorała. 

Cząsteczka nie mogła być zgodna z tą w żywych organizmach, bo z badań nad otrzymywaniem włókien wynikało, że DNA było w stanie dość mocno się uwodnić, wiążąc znaczne ilości wody bez rozpadu. Zdolność do wiązania wody miały tam cukry i reszty fosforanowe, natomiast aminy aromatyczne słabo wiązały wodę. Musiało być zatem tak, że aminy w jakiś sposób budują rdzeń, mimo różnych rozmiarów cząsteczek, a cukry i fosforany są na zewnątrz i dzięki temu są dostępne dla cząsteczek wody. W ich modelu fosforany są wewnątrz nici, zajęte oddziaływaniem z magnezem, którego dotychczas w DNA nie stwierdzono. Takie połączenie jonowe powinno hydrolizować podczas nawodnienia, przez co DNA w obecności dużej ilości wody samo by się rozpadało.

Po tym wydarzeniu szef Cavendish Laboratory, Bragg, dostał negatywne opinie z King's Cross o błędnej i pospiesznej pracy Watsona i Cricka, którzy ścigali się z pracującym równolegle nad tym samym pomysłem Linusem Paulingiem i powielali badania innych, zamiast przysiąść nad eksperymentami. Zirytowany cofnął im pozwolenie na zajmowanie się tematem i odesłał do badania hemoglobiny. Dalsze rozważania nad strukturą DNA prowadzili więc na własną rękę.

Natomiast Rosalind i Gosling kontynuowali eksperymenty dyfrakcyjne. Przy okazji wykonali niezwykłe wyraźne zdjęcie mocno uwodnionej formy B DNA. Było to trochę niezamierzone; włókno nawodniło się bardziej niż planowali. Franklin skupiła się nad formą A o niższym uwodnieniu, dlatego zdjęcie nr. 51 zostało odłożone do analiz na później. Z analizy zdjęcia dało się wyczytać, że cząsteczka ma formę helisy, jak wąski jest skręt i w jakiej odległości są oddalone powtarzalne jednostki strukturalne.

Zdjęcie 51


1953 - Rosalind odchodzi a dane krążą

W 1953 roku Rosalind  decyduje się odejść Birkeback College, gdzie oferowano jej wysokie stypendium. Przed ostatecznym zakończeniem współpracy w lutym napisała trzy artykuły na temat badań, oraz pozostawiła po sobie raport opisujący wyniki oraz różne jej przypuszczenia, oddany szefowi Randallowi. Gosling ma w tym momencie tylko trzy lata pracy nad doktoratem, trochę za mało. W związku z tym powraca do swojego pierwotnego promotora Wilkinsa. Prace nad krystalografią DNA były częścią jego badań w ramach przewodu doktorskiego, w związku z tym posiadał u siebie wszystkie dane, potrzebne przecież do napisania pracy doktorskiej, i pokazał je Wilkinsowi, bo ten był jego promotorem. Był to owoc jego prac a słynne zdjęcie 51 wykonał osobiście. Franklin wydała mu zezwolenie na przekazanie danych promotorowi na początku 1953 roku, dość późno, bo w tym czasie zajmowała się obliczeniami struktury, próbując dojść do geometrii samodzielnie. Nie przywiązywała do tego zdjęcia dużej wagi, bo przedstawiało ono formę B, o której sądziła, że nie jest właściwą.  Nic nie odbyło się na tym etapie niezgodnie z procedurami. Bez informacji o współpracy tych trzech osób powstaje wrażenie, które zdaje się podzielać wielu popularyzatorów, że Wilkins te zdjęcia ukradł, zabrał z szuflady czy coś w tym rodzaju.

Watson opisuje później w swojej książce, jak to pod koniec stycznia poszedł do King's Colledge, mając nadzieję na nawiązanie jeszcze jakiejś współpracy. Dopiero co ukazała się propozycja struktury opublikowana przez Linusa Paulinga, z którym badacze się właściwie ścigali. Propozycja bez wątpienia błędna, co Watson i Crick mogli poznać mając w pamięci własny nieudany model. Zaszedł do laboratorium Franklin, proponując złączenie sił, zanim Pauling zauważy jaki duży popełnił błąd. W tym momencie dużo rzeczy mogło potoczyć się inaczej, ale wyszło jak wyszło. Zirytowana badaczka wyrzuciła go na korytarz. Wrócił więc do gabinetu Wilkinsa, aby pokazać mu artykuł Paulinga i zachęcić do współpracy.

  Podczas towarzyskiego spotkania Wilkins pokazał dotychczasowe materiały Watsonowi. Jest to ten najbardziej sporny punkt historii, bo nikogo nie pytał o pozwolenie, a Watson w tym czasie owszem, zajmował się tym tematem, ale pracował gdzie indziej. Z drugiej strony z opisów pracy w laboratorium wynika, że Wilkins nie zwykł mocno się kryć z wynikami prowadzonych badań i często pokazywał gościom zdjęcia, rysunki i tabele.

Dalsze wydarzenia potoczyły się szybko. Gdy Watson zobaczył doskonałej jakości zdjęcia, od razu zrozumiał, że jest to dowód na helikalną budowę cząsteczki. Sposobu interpretacji zdjęć wcześniej nauczył go Crick. Ponadto z badań powinny już wynikać dostatecznie szczegółowe dane, aby móc rozstrzygnąć choćby tą niepewność z ilu właściwie nici składa się cząsteczka. Oboje badacze zgodzili się też z argumentacją, którą przedstawiała wcześniej Frankin, że zasady purynowe powinny być umieszczone w środku a nie na zewnątrz nici. Dalsza zabawa z modelami cząsteczek pokazała, że jest możliwy chemicznie sposób połączenia dla jednej nici, tworzący układ: fosforan-ryboza-puryna. Kwestią zagadkowa było jednak jak biegły obie nici i co je łączyło ze sobą. 

Watson i Crick otrzymali ponownie zgodę od szefa na prowadzenie prac nad DNA i w tym momencie nastąpił kolejny przepływ informacji. King's Colledge przygotowało wcześniej dla British Medical Council, sponsora laboratorium, raport opisujący ostatnio prowadzone badania. W tym podsumowanie ogólnych danych dyfrakcyjnych napisane przez Franklin. Kopia raportu została wysłana do Cavendish. Wśród osób uprawnionych do posiadania tego raportu był Max Perutz, promotor Cricka. Pokazał więc raport badaczowi. Crick zauważył wtedy zadziwiające podobieństwo wyliczonego kształtu i symetrii komórki elementarnej DNA do danych, które sam wcześniej otrzymał podczas pracy nad swoim doktoratem. Bardzo podobną symetrię otrzymał w kryształach fragmentu końskiej hemoglobiny. Było już wtedy wiadomo, że fragment ten składa się z dwóch komplementarnych części, więc tak samo musiało być z DNA. Z ogólnej symetrii tej komórki wynikało też, że nici są ułożone antyrównolegle - jedna biegnie odwrotnie niż druga, zatem cukry i fosforany tworzące jedną zewnętrzną nić są do góry nogami wobec drugiej. Frankin najwyraźniej nie zwróciła na to wcześniej uwagi i w rozważaniach nad ułożeniem cząsteczki brała modele z niciami równoległymi. A to utrudniało wpadnięcie na poprawne ustawienie. 

Patrząc na to bardziej krytycznie, konkretne dane wyliczone z wielu eksperymentów okazały się dla dalszych wydarzeń ważniejsze niż sam fakt pokazania Watsonowi zdjęcia. Nadano tej fotografii trochę za duże znaczenie, stąd rozważania o etyczności badaczy skupiają się na momencie pokazania, a nie innych sytuacjach przed i po. W dodatku część danych z tego raportu Rosalind upubliczniła już podczas wykładu w 1952 roku. Tego, na którym Watson niczego nie zanotował.

Watson wcześniej rozmawiał z Chargraffem, który mówił mu o swoich badaniach względnych proporcji amin. O tym, że zawsze w chromatynie jest tyle samo adeniny i tyminy oraz tyle samo guaniny i cytozyny i to musi mieć jakiś związek z budową cząsteczki. Mówił o tym już zresztą Paulingowi a pracę czytał kiedyś Wilkins, ale nikt z nich nie przywiązywał do tego należytego znaczenia. Z tego parzystego podobieństwa amin wynikało, że być może w strukturze adenina i tymina są w jakiś sposób powiązane, podobnie jak guanina z cytyzyną. I musiało to być połączenie specyficzne, to jest z pary jedna amina wiązała się tylko z drugą a nie którąś z pozostałej pary. Pozostawało tylko odpowiedzieć jak były połączone i jak do siebie pasowały. Badacze wykonywali różne spiralne modele z kawałków drutu i kartonu, ale gdy składali ze sobą aminy w parach, to nie pasowały do siebie. Nic nie wskazywało na połączenie wiązaniem kowalencyjnym - rozpad nici wymagałby wtedy znacznie wyższej energii. Ze znacznie słabszym wiązaniem wodorowym istniał nie mniejszy problem. 

Wiązanie takie potrzebuje do pary: atomu niemetalu z wolną parą elektronowa, która jest akceptorem, to jest azotu lub tlenu, i atomu wodoru połączonego z niemetalem, który jest donorem. Jeśli pomiędzy tymi dwoma końcami nie ma wodoru, to nie ma wiązania wodorowego. To oczywiste. No i gdy Watson i Crick rysowali wzory guaniny i cytozyny takie, jakie podano w podręcznikach, to nie było tam miejsca na tworzenie jakichkolwiek wiązań wodorowych. Na tym punkcie utknęli wszyscy inni badacze, którzy próbowali tworzyć model z aminami w środku spirali.


Luty 1953 - Ostatnia prosta

W ostatnim etapie pomógł przypadek. W tym samym pokoju co Watson pracował Jerry Donohue, który wcześniej zajmował się krystalografią biomolekuł. Gdy Watson kolejny i kolejny raz pokazywał mu modele pokazując, że cząsteczki amin nie mają jak się ze sobą łączyć, ten zwrócił mu uwagę, że może od początku używał złej formy. Aminy te mają blisko położone atomy z wolnymi parami elektronowymi i strukturę aromatyczną, więc mogą tworzyć różne formy, z różnym położeniem wodoru. Watson pracował na podawanych w podręcznikach strukturach enolowych. W takich formach nie dało się sensownie połączyć cząsteczek Guaniny i Cytyzyny wiązaniami wodorowymi, bo miały na obu końcach tylko dwa miejsca mogące być donorem wodoru, a miejsca akceptujące wiązanie były zlokalizowane pośrodku i nie miały wodoru do utworzenia wiązania.

Donohue stwierdził jednak, że bardziej prawdopodobne wydaje się, że najtrwalszą strukturą tych zasad jest forma ketonowa, na co wskazywali już niektórzy badacze i co wydawały się potwierdzać obliczenia. Po przerysowaniu cząsteczek do form ketonowych wszystko stało się jasne - obie zasady posiadały położone naprzeciwko miejsca donorowe i miejsca akceptorowe, tworząc trzy wiązania wodorowe. Podobnie to wyglądało z Tyminą i Adeniną - dla formy enolowej cząsteczki mogły utworzyć najwyżej jedno wiązanie, w formie ketonowej tworzyły dwa wiązania, dobrze stabilizujące układ. Pary tych amin różniły się ilością tworzonych wiązań wodorowych - jedna para tworzyła trzy a druga dwa. Można więc powiedzieć, że podczas oddziaływania jedna amina z pary rozpoznawała drugą i nie myliła się z inną. Tłumaczyło to parzystość akurat tych cząsteczek.


 

Kolejnym kamyczkiem do konstrukcji była długość wiązań wodorowych. Po zestawieniu ze sobą par amin ze właściwych formach z wyliczeń wynikało, że całkowite długości T-wodór-A i C-wodór-G są takie same. Nie ma więc żadnej asymetrii o jaką to drżeli od początku wszyscy badacze, którzy z tego powodu umieszczali aminy na zewnątrz.

Trzy publikacje

Wbrew temu, co powiedział w swoim odcinku Myśliwiec,  Franklin nie mogła nie wiedzieć, że jej prace pomogły Watsonowi i Crickowi. W pierwszym doniesieniu w Nature na temat odkrycia struktury DNA piszą oni wprost, że opierali się na wówczas jeszcze nieopublikowanych danych Franklin. Wymieniali ją w podziękowaniach, pisząc że oparli się na jej nie publikowanych sugestiach, oraz oznaczyli ją jako autorkę zdjęcia rentgenowskiego. Cytowali jeden z jej wcześniejszych artykułów na temat techniki badań rentgenowskich DNA. Nie dało się nie zauważyć, że odnoszą się do jej prac i mają jej zdjęcia. 

Ona sama miała zresztą okazję opublikować swoje dane w tym samym numerze The Nature, odnosząc się przy tym do artykułu Watsona i Cricka, więc nie było tak, że nie pozwolono jej zaprezentować swojego udziału. Był on znany od początku, nie do końca poznane były jedynie kulisy przekazania danych eksperymentalnych, co zaowocowało z czasem mitami. Być może bardziej sprawiedliwe byłoby, gdyby dopisali ją jako trzecią autorkę, ale to by mocno nie zmieniło późniejszych wydarzeń.

Publikacja obok siebie artykułów różnych zespołów była wynikiem porozumienia między laboratoriami. Szef Cavendish Laboratory porozumiał się z Randallem z King's Colledge wiedząc, że do odkrycia Watsona i Cricka doprowadziły dane z ich laboratorium. I były one na dobrą sprawę jedynym dowodem wspierającym hipotezę, bo cała struktura została wyłącznie wykoncypowana. W tej sytuacji zdecydowano za zgodą redaktorów Nature na publikację trzech wzajemnie się cytujących artykułów, na kolejnych stronach i w ciągłej numeracji. Najpierw artykuł Watsona i Cricka o propozycji struktury DNA, opartej o wnioski wynikające z jeszcze niepublikowanych danych rentgenowskich Rosalind, zinterpretowanych przy pomocy nowego aparatu matematycznego dyfrakcji na włóknie, stworzonego przez Stokesa. Następnie artykuł Wilkinsa i Stokesa o wykonywaniu eksperymentów dyfrakcyjnych na włóknie DNA i metodzie matematycznej interpretacji dowodzącej helikalności. Na koniec artykuł Rosalind i Goslinga o sposobach otrzymywania włókien DNA, badania ich dyfrakcyjnie i o otrzymywanych obrazach, z sugestiami co do symetrii substancji. 

Artykuły były przygotowywane wspólnie, a Rosalind przyszła w czasie prac redakcyjnych do laboratorium Watsona i Cricka i sceptycznie przyglądała się ich modelowi cząsteczki. Uważała, że za dużo jest tu zgadywania i trzeba po prostu siąść jeszcze kilka miesięcy nad mozolną pracą obliczania map Patternsona, aby rozwikłać położenie atomów i wtedy prawdziwy kształt cząsteczki będzie oczywisty. Ale na publikację swoich danych wraz z ich hipotezą się zgodziła.

Pytany o to wszystko w roku 2013 roku Gosling potwierdził, że Rosalind ostatecznie dowiedziała się, że model zbudowano na podstawie danych z jej raportu. W późniejszych latach zajęła się badaniami budowy wirusów, zwłaszcza Polio i mozaiki tytoniowej. Nie ukończyła tych prac i zmarła w 1958 roku z powodu raka jajnika, w wieku 37 lat.

Lata 50.

No więc prestiżowy magazyn naukowy opublikował trzy artykuły o strukturze DNA. I w tym momencie w świecie naukowym zapanowała euforia, wszystkich autorów noszono na rękach po czym zaczęto się zastanawiać jak wypchnąć z tego grona kobietę... Tylko że nie.  Reakcja świata naukowego była bardzo skromna. Ot, kolejna w ostatnich latach propozycja możliwego wyglądu cząsteczki.  Szefowie King's College byli tym trochę rozczarowani. Temat nie chwycił w mediach, a specjaliści podchodzili do propozycji sceptycznie. Nie była to pierwsza propozycja struktury wykoncypowana z danych o składzie.

Tuż przed nimi swoją propozycję struktury przedstawił Linus Pauling, światowej sławy badacz, który dopiero co rozwikłał strukturę białek. Przyspieszenie prac nad badaniami struktury w Cambridge wynikało stąd, że było powszechnie wiadomo, że zajął się on tym tematem, zaś Bragg miał nadzieję, że jego naukowcy będą szybsi. No i ściganie się między zespołami doprowadziło do publikacji pospiesznej, źle obmyślanej hipotezy. W jego wersji DNA było potrójną helisą, utworzoną przez rdzeń cukrowo-fosforanowy, z zasadami organicznymi na zewnątrz.  Struktura trzymała się w całości dzięki wiązaniem wodorowym między grupami fosforanowymi. Było to dziwaczne rozwiązanie, bo grupy te łatwo jonizują, a po oderwaniu od nich wodoru w lekko alkalicznych warunkach wewnątrzkomórkowych nie ma jak powstać wiązanie wodorowe. W tej wersji cząsteczka nie miała się jak trzymać w całości w formie soli, a przecież takie sole otrzymywano. 

Jeszcze wcześniej, w 1951, swoją propozycję struktury przedstawił Edward Ronwin . Podwójna nić zawierała rdzeń z fosforanów, które łączyły wszystkie elementy na zewnątrz przez wiązania kowalencyjne. Co od razu zwracało uwagę - struktura wymagała pięciowiązalnego fosforu, a takich związków, które byłyby trwałe w warunkach biologicznych, jeszcze wtedy nie znano.

Struktura Watsona i Cricka była hipotetyczna i opierała się o kilka założeń. Wspierano ją danymi obrobionymi nowym modelem matematycznym rozpraszania na włóknie. Zakładała dwuniciowość jako najbardziej prawdopodobną, ale bez ukończonych obliczeń struktury krystalicznej (co było strasznie żmudne i dane przeliczano jeszcze przez dłuższy czas po publikacji). Zakładała zasady purynowe w formie ketonowej, gdy tymczasem w podręcznikach podawano formę enolową, Nie wyjaśniała nic na temat działania cząsteczki. Dla biochemików wyglądało to na dużą dozę chciejstwa i dopasowywania danych pod tezę. 

Prawie trzy tygodnie po publikacji, 14 maja, Lawrence Bragg, który był szefem Cavendish Laboratory, wygłosił na ten temat odczyt w szkole medycznej. Sprawozdanie z tego wykładu, zawierające informacje o odkryciu, miał kolejnego dnia zamieścić New York Times, znana gazeta. Artykuł miał sześć krótkich akapitów i pojawił się gdzieś w środku porannego wydania. Po czym w głównym wydaniu został usunięty, aby zrobić miejsce dla czegoś ważniejszego. Dopiero po dłuższym napraszaniu się i wysyłaniu gotowych notek prasa popularna zaczęła się z wolna interesować pomysłem na początku czerwca, ale nadal to nie była sensacja.  

Swoje propozycje publikowali kolejni badacze. Były to modele jednoniciowe; dwuniciowe z fosforanami w środku, takie z większą ilością nici itd. Cały czas pojawiały się też artykuły o tym, że pozostali się mylą i tajemnicy dziedziczności trzeba szukać w białkach albo sacharydach. Przyznawanie, że model przedstawiony w 1953 roku był poprawny zaczęło przeważać dopiero pod koniec lat 50. gdy pojawiały się nowe, dokładniejsze wyniki badań rentgenowskich, potwierdzających helikalność i dwuniciowość. Wreszcie w 1958 roku badania Meselsona i Stahla nad replikacją potwierdziły przypuszczenia Watsona I Cricka, że DNA podczas podziału komórki jest dzielone na poszczególne nici, na których nadbudowywana jest druga połówka, układająca drugie aminy z pary na podstawie rozpoznania ilości wiązań wodorowych. W tym momencie dopiero można było poskładać do kupy wszystkie publikacje i dojść do wniosku, że DNA jest rzeczywistym czynnikiem dziedzicznym, a  w pełni poprawny model Watsona i Cricka rozwiązuje pewne problemy związane z podziałem informacji podczas replikacji. I wypadałoby ich za to nagrodzić.

Czemu jako trzecia osoba Nobla dostał Wilkins? Zgłosił go w swojej nominacji Bragg, który chciał tym samym uhonorować  prace badaczy z laboratorium King's College. W tym Rosalind Franklin, która w tym momencie już nie żyła, więc jej się zgłosić nie dało. Znów więc ciężko mówić o jakimś pomijaniu i próbie ukrycia jej wkładu. To co się stało potem, po przyznaniu nagrody, to już niestety efekt wspomnianego zjawiska Syndromu Pojedynczego Zmieniacza, wzmocnionego tym, że nagrodę przyznaje się nielicznym osobom, toteż media i podręczniki przypisały całość odkrycia tylko tym nagrodzonym, bo to ich nazwiska wymieniono. Plus działania Watsona, któremu sława uderzyła do głowy i w wywiadach oraz autobiograficznych książkach robił z siebie gwiazdę, która sama to wszystko odkryła, w izolacji od innych badaczy. 

"Podwójna helisa"

Książka autobiograficzna Watsona na temat badań "Podwójne helisa", opublikowana w 1968 roku zmieszała jego kolegów. Serio zastanawiali się nad pozwem o zniesławienie. Za sprawą ich protestów publikacji odmówiło wydawnictwo uniwersyteckie Harward University Press. Watson dużo skupia się tam na swojej osobie i na myśli, że należy mu się bycie pierwszym, który odkryje budowę DNA, a wkłady innych osób umniejsza, poświęcając dużo miejsca na opis tarć interpersonalnych. W tym pojawiają się opisy Franklin jako kłótliwej, zadufanej, stroniącej od współpracy. Cała ta historia z nekrologiem, a potem jeszcze chłodne traktowanie kolegów, rozmowy w tonie "to wy tego nie wiecie?" i publiczne krytykowanie pomysłów. To jej nie przysporzyło zbyt dużo sympatii.

Z drugiej jednak strony właśnie on ujawnił jak dużo jej danych wykorzystał w badaniach; podkreślił jej sumienność i analityczne myślenie, dzięki któremu doszła bardzo wcześnie do wniosków, jakie okazały się mieć znaczenie w przyszłości. Paradoksalnie gdyby nie jego relacja bardzo późno wyszłoby jak daleko sięgał jej wkład. Watson chcąc nie chcąc rozsławił udział Franklin w badaniach nad DNA. I uruchomił niektóre do dziś pokutujące mity.

"Rosalind Franklin and DNA"

W 1975 roku wydana zostaje książka biograficzna Anne Sayre na temat Franklin i jej roli w odkryciu DNA. I to ona niestety pozostaje głównym źródłem mitów w temacie. Jest to reinterpretacja faktów biograficznych w nurcie herstory, która kreowała Franklin na feministyczną bohaterkę, która musiała się zmagać z mizogonią od pierwszych swoich dni. Autorka, będąca przyjaciółką Franklin, przyznawała że w zasadzie nie jest to stricte biografia tylko odpowiedź na książkę Watsona. 

Publikacja ta stała się obiektem krytyki współpracowników i krewnych Franklin. Przykładowo w kreowanym w książce obrazie Franklin musiała od samego początku walczyć ze sprzeciwem otoczenia i rodziców aby zajmować się naukami ścisłymi. Prowadziło to wprost do oskarżenia jej rodziców o seksizm. Glenn Franklin, siostra badaczki, zaprotestowała przeciwko temu. W rzeczywistości ojciec wspierał obie córki w ich marzeniach o wyższym wykształceniu i finansował im studia. Nie było więc żadnego przełamywania oporu.  

Dowodem na powszechny seksizm w instytucie miało być równocześnie to, że w zespole badawczym biofizyki pracowała poza Franklin tylko jedna naukowczyni, jak i to, że pracowniczki naukowe King's Colledge miały jeść obiad w oddzielnej sali lub poza budynkiem. Badaczki, które w tym czasie tam pracowały były tymi tezami zaskoczone, bo razem z Franklin w zespole pracowało jeszcze co najmniej siedem kobiet i wszyscy jedli obiad we wspólnej jadalni, jednej dla wszystkich pracowników. 

Innym krytykowanym obrazem jest przedstawianie Franklin jako aktywnej feministki, tymczasem jej współpracownicy twierdzą, że raczej nie miała takich poglądów i nie udzielała się w aktywizmie równouprawnienia.

***

Patrząc na to z perspektywy lat to Gosling był w tej historii bardziej poszkodowany, bo żył w roku przyznania Nobla ale nie został uwzględniony, a teraz nie opowiada się o nim w otoczce ujawniania ukrywanych tajemnic (chyba że dostrzegacie taką w niniejszym opracowaniu :).

***

Wszystkie te fakty nie są jakieś mocno trudne do znalezienia. Szczerze mówiąc większość tych informacji wziąłem po prostu z angielskiej Wikipedii z haseł na temat wszystkich tu wymienionych osób i książek. Nie ma problemu aby znaleźć linie czasu i chronologiczne podsumowania, pokazujące kto pierwszy i kiedy zajął się tematem, jak pozostałe osoby się dołączały i którędy krążyły informacje. Dlatego narracja Dawida, która powtórzyła najważniejsze mity na temat Rosalind Franklin wprawiła mnie w konfuzję. Rosalind nie mogła nie wiedzieć, że jej zdjęcie posłużyło Watsonowi i Crickowi, a oni nie kryli się z tym, że oparli się na jej sugestiach niepublikowanych jeszcze pomysłach. Miała okazję zaprezentować swoje dane w tym samym numerze The Nature. Oglądała ich model przed publikacją i nie znalazła tym razem zastrzeżeń. A nieuwzględnienie jej w nagrodzie Nobla w 1962 roku wynikało głównie stąd, że tego roku nie dożyła. Gdyby Watson i Crick wzięli ją na trzecią autorkę publikacji (na co prawdopodobnie by się nie zgodziła, bo nie ufała hipotezom bez dobrych podstaw eksperymentalnych) to historia z nagrodą pewnie potoczyłaby się tak samo.  

Cały ten mit "zapomnianej badaczki której ukradziono zdjęcie" powoduje, że dziś pisze się o niej częściej niż o takim Wilkinsie.

 Jak można mówić o nauce i nie zweryfikować takich rzeczy? Tym bardziej, że ma to być skrócona wersja opisu odkrycia struktury DNA zawarta w książce Myśliwca. Jeśli tak wygląda ta historia w książce, to nie wiem czy chcę ją kupić. 

------------------------

 https://www.theguardian.com/science/2015/jun/23/sexism-in-science-did-watson-and-crick-really-steal-rosalind-franklins-data

 https://royalsocietypublishing.org/doi/pdf/10.1098/rsbm.2006.0031

sobota, 13 listopada 2021

Jednowarstwowy laser

 Kilka miesięcy temu w czasopiśmie Nature Materials ukazała się ciekawa publikacja niemieckich naukowców "Kondensacja bozonowa ekscytono-polarytonów w krysztale grubości atomu" [1], opisująca jak to przy pomocy egzotycznego stanu kwantowego otrzymano kondensat Bosego-Einsteina z polarytonów, a w efekcie doprowadzono w nich do akcji laserowej.

Brzmi to bez wątpienia bardzo egzotycznie. I trochę mało zrozumiale. Więc już tłumaczę co w tym jest takiego ciekawego.



Atomy i cząsteczki są w stanie pochłonąć energię z promieniowania elektromagnetycznego o pewnej dostrojonej częstotliwości, w związku z tym ich elektrony wchodzą w stan o wyższej energii. Jest on nietrwały, dlatego po pewnym czasie elektrony pozbywają się energii wypromieniowując fotony o pewnej określonej częstotliwości. Czasem emitowane promieniowanie ma inną częstotliwość niż to pochłonięte - na tej zasadzie działają farby fluoryzujące oraz świetlówki, wewnątrz których wytworzony jest ultrafiolet, a ten pochłania farba pokrywająca szklaną rurkę, emitująca z powrotem światło widzialne. Ale może być też tak, że emitowane jest takie samo światło jak to pochłonięte. Wtedy światło wyemitowane przez jedną partię materiału jest pochłaniane przez następną, mającą taką samą zdolność do pochłaniania tej właśnie fali. Skończony czas trwania stanu wzbudzonego powoduje, że światło jest rozpraszane, część energii zamienia się w ciepło, a materiał staje się nieprzezroczysty dla tej wzbudzającej go fali.

Jeśli stan kwantowy, w którym dochodzi to tych pochłonięć i emisji jest odpowiednio na to czuły, możliwa jest emisja wymuszona - uderzenie fotonu w atom lub cząsteczkę, która już nieco wcześniej pochłonęła inny foton i znalazła się w stanie wzbudzonym, wytrąca ją z tego stanu i wymusza wyemitowanie fotonu wcześniej. Teraz przez przestrzeń lecą dwa fotony. Tym rasem taki wymuszony foton ma taki sam kierunek i zwrot co foton wymuszający, nie dochodzi do rozpraszania w różnych kierunkach. Po tym procesie oba fotony, wymuszający i wymuszony, mają taką samą długość fali i kierunek

Akcja laserowa to sytuacja, gdy materiał czuły na takie procesy pochłaniania i emisji, zostanie na tyle mocno naświetlony, że bardzo duża ilość jego cząstek/miejsc pochłaniających znajduje się teraz właśnie w stanie wzbudzonym. Taki materiał jest "nasycony" energią światła i niewiele trzeba aby go z tego stanu wytrącić. Jeśli zarazem ten uzyskany stan jest czuły na emisję wymuszoną, a my stworzymy układ optyczny, w którym fotony poruszają się przede wszystkim w pewnym określonym kierunku, może dojść do akcji laserowej. Po przekroczeniu pewnego zagęszczenia poruszających się w tym samym kierunku fotonów, i miejsc wzbudzonych, czułych na emisję wymuszoną, następuje kaskadowe wymuszenie wypromieniowania światła z całej objętości materiału i powstaje impuls spójnej wiązki światła o tej samej częstotliwości, kierunku i zwrocie. Cała nagromadzona podczas naświetlana energia zostaje uwolniona w krótkim impulsie, stąd duża jasność wiązki laserowej.  



W publikacji omawianej tutaj opisywany jest przypadek wytworzenia takiej sytuacji w materiale półprzewodnikowym o grubości jednego atomu. Warstwę diselenku molibdenu umieszczono między warstwami tlenku krzemu i tytanu. Tlenek ten jest bardzo połyskliwy i odbija wiele fotonów do wnętrza wnęki, choć wciąż jest na tyle przezroczysty, że półprzewodnik między warstwami można manipulować. Był on naświetlany laserem o takiej częstotliwości, aby wytworzyć w nim wzbudzone stany elektronowe w sieci krystalicznej tej monowarstwy.
Wytworzono w ten sposób szczególny stan polarytonów ekscytono-fotonowych.

Ekscyton to kwant wzbudzenia elektronowego w materiale - pewien elektron zostaje wyrwany z poziomu podstawowego, w którym nie może być przewodzony przez półprzewodnik i nabiera takiej energii, że możliwe jest dla niego swobodne przewodzenie. Mówi się wtedy, że przeszedł on do "pasma przewodnictwa". W obrębie grupy elektronów o stanie podstawowym pozostaje po nim dziura, zachowująca się jak cząstka o ładunku dodatnim. Skoro te dwa stany w różnych poziomach energetycznych mają różne ładunki, to mogą utworzyć w materiale układ związany, podobny do miniaturowego atomu - dziura elektronowa, w pobliżu której krąży elektron wzbudzony. Stan taki można w pewnych sytuacjach traktować jak bardzo lekką cząstkę, stąd określenie ekscyton. 


Ekscyton ten oddziałuje z polem elektromagnetycznym, a w czasie ruchu i drgania może je sam wytwarzać, bo jest w końcu układem związanym ładunków a ruch ładunków emituje promieniowanie. Ekscyton może nawet pochłaniać energię promieniowania, co ma decydujące znaczenie w pewnych procesach przewodzenia i rozpraszania energii. Gdy rozpatrujemy cały proces w skali kwantowej okazuje się, że ekscyton reagujący z polem przyjmuje określone, kwantowane stany energetyczne i powiązany jest z kwantem pola elektromagnetycznego - fotonem. Taki stan nazywany jest polarytonem ekscytonowo-fotonowym. Może być on traktowany jak coś w rodzaju cząstki o określonych stanach kwantowych. Jest to wtedy kwazicząstka, złożona z fotonu i kwazicząstki ekscytonu, będącej stanem związanym elektronu z dziurą, czyli... też kwazicząstką. Taka "jakby cząstka" do sześcianu, ale ostatecznie w świecie kwantowym sytuacja ta generuje bardzo konkretne i możliwe do zmierzenia efekty.

Skoro polarytony mogą być traktowane jak cząstki z możliwością przebywania w różnych stanach kwantowych, to powinny podlegać w ramach tego ujęcia różnych kolektywnym zjawiskom. W normalnej sytuacji sąsiadujące ze sobą polarytony powinny mieć różne stany. Ale przy odpowiednim zagęszczeniu, wyrównaniu poziomów energetycznych i bardzo niskiej temperaturze, w której drgania materiału nie wybijają cząstek równowagi, możliwe jest otrzymanie sytuacji, w którym wszystkie cząstki w danym obszarze nabierają tego samego stanu kwantowego. Skoro tak, to przestają być od siebie wzajemnie odróżnialne i dla obserwatora, próbującego wykonać na nich pomiar, zachowują się jak jedna masa lub jak rozciągnięta w przestrzeni jedna cząstka. Nazywa się to kondensatem Bosego-Einsteina i otrzymywano już takie stany w chmurze bardzo schłodzonych gazów, gdzie cząstkami o zrównanych stanach energetycznych były normalne atomy.. 


 Stan wzbudzony ekscytonu nie jest bardzo trwały, w końcu następuje połączenie dziury ze wzbudzonym elektronem. Musi się więc w tym procesie uwolnić energia, i może być uwolniona jako światło. Z kolei utworzony z niego polaryton sam w sobie może znajdować się w wysokoenergetycznym stanie i schodząc do stanu o niższej energii emitować foton.

W tym kontekście zrozumiałe staje się co takiego zrobili naukowcy - wywołali w warstwie półprzewodnika powstanie polarytonów. Te naświetlano tak, aby weszły w wyższy stan energetyczny. Po chwili obniżając energię wydzielały fotony, a te odbijały się od otaczających warstw tlenku i wzbudzały kolejne polarytony. Gdy w wyniku bardzo ostrożnych manipulacji energetycznych udało się uzyskać odpowiednio duże nasycenie materiału wzbudzonymi polarytonami, w dobrze dobranych warunkach wszystkie wyrównały stan kwantowy, utworzyły kondensat Bosego-Einsteina z polarytonów. Zarazem stan energetyczny tych wyjściowych polarytonów jest wrażliwy na emisję wymuszoną, więc w układzie równoległych warstw odbijających dużo fotonów, w którym światło osiągnęło odpowiednią gęstość, doszło do równoczesnej wymuszonej emisji światła w tym samym kierunku i fazie z wszystkich polarytonów tworzących kondensat. Warstwa złożona z pojedynczych atomów zadziałała jak laser i wytworzyła wiązkę światła.

Po co było się tak męczyć? Potwierdza to rozważania teoretyczne, że powinien być możliwy do utworzenia kondensat z takich złożonych kwazicząstek - można więc przetestować różne dodatkowe szczegóły aby lepiej zrozumieć zjawiska zachodzące z kolektywnym oddziaływaniem kwazicząstek, a to zapewne rozwiąże niektóre niejasności w fizyce ciał stałych, od której zależy działanie elektroniki i wielu urządzeń. Obecnie bardzo obiecującym rozwiązaniem technicznym wydaje się opto-elektronika, w której układy scalone działałyby dzięki odpowiedniemu przesyłania światła a nie elektronów, co zwiększa szybkość działania. Po drugie daje to możliwość stworzenia najmniejszych możliwych źródeł światła o laserowych właściwościach, a to jest potrzebne w pewnych układach badawczych. Kolejny kierunek to wytworzenie tego stanu w wyższych temperaturach, bo eksperymentalna temperatura 4K jest ciężka do osiągnięcia w domowych warunkach. Stąd testy z uzyskania tego stanu na warstwach innych chalkogenów o podobnych właściwościach elektronowych, jak cięższy analog diselenek wolframu.
Gdyby zaś udało się wytworzyć taki stan w wysokich temperaturach, to kto wie, czy następną rewolucją w oświetleniu nie będą "żarówki polarytonowe". 

(całe to objaśnienie napisałem kilka miesięcy temu jako komentarz na Wykopie, a teraz uznałem, że ponieważ porządnie się wtedy napracowałem aby przystępnie wyjaśnić, to warto jest dać tekst i tutaj) 

--------

[1] https://www.nature.com/articles/s41563-021-01000-8

poniedziałek, 25 października 2021

Kiedyś w laboratorium (84.)


 Krystalizacja aminokwasów metodą wiszącej kropli.


Aby przy pomocy krystalografii zbadać substancję, należy ją dobrze wykrystalizować. Ale to bywa czasem trudne - rozbudowane, asymetryczne cząsteczki trudno odnajdują jakiś porządek w trójwymiarowej sieci. Mogą wytrącać się jako osady amorficzne, niekiedy mają skłonność do tworzenia oleistych cieczy przechłodzonych. Czasem substancja może tworzyć warstewkę na powierzchni naczynia z powodu adhezji, lub koncentrować się wokół nierówności. Dlatego wymyślono wiele metod krystalizacji, które czasem pozwalają na otrzymanie nowej formy krystalicznej, jaka w innych warunkach nie powstaje.

W metodzie wiszącej kropli wykorzystywane są niewielkie objętości roztworu substancji, co jest korzystne, gdy mamy jej akurat bardzo niewiele. Wykorzystywane jest to w zasadzie proste zjawisko zatężenia roztworu przez odparowanie, ale szybkość procesu jest kontrolowana. 

Przygotujemy roztwór badanej substancji, na przykład białka, w rozpuszczalniku. Dla biomolekuł jest to zwykle któryś z buforów. Przy pomocy pipety umieszczamy kroplę na spodniej stronie nakrywki, tak aby z niej zwisała ale nie mogła skapnąć. Nakrywamy tym ostrożnie naczynka zawierające taki sam roztwór ale o wyższym stężeniu substancji rozpuszczonych. Czyli na przykład na nakrywce jest roztwór białka w 0,1M buforze, a w naczynku bufor o stężeniu 0,5M. Po zamknięciu naczynka roztwory będą dążyły do pewnej równowagi - parowanie z mniej stężonego roztworu będzie bardziej intensywne, zaś ten bardziej stężony będzie w efekcie pochłaniał rozpuszczalnik i się rozcieńczał. W efekcie stężenie substancji w kropi będzie rosło, aż do przesycenia.

Ze względu na to, że powstające kryształy nie będą opadały na podłoże, co wynika z odwróconej pozycji, kryształ zawiesi się blisko spodniej powierzchni kropli. Ogranicza to zaburzenia wywołane oddziaływaniem kryształu z podłożem, jak na przykład spłaszczenie z powodu odcięcia jednej strony, która przylgnęła do dna. Odpowiednio dobierając różnice stężeń między roztworem w kropli i roztworem na dnie, można proces zatężenia przyspieszyć lub spowolnić, mogąc ustawić go tak, aby powstawał pojedynczy kryształ dostatecznej wielkości.

sobota, 21 sierpnia 2021

Co z tym tlenkiem etylenu?

   Media donoszą ostatnio często o wycofaniu żywności z powodu zanieczyszczenia tlenkiem etylenu - wypada więc coś o nim napisać, bo to pod względem chemicznym bardzo ciekawy związek.



  Zacznijmy może od etylenu. To najprostszy węglowodór nienasycony. Zawiera tylko dwa węgle połączone wiązaniem podwójnym. 

Przy pomocy odpowiednich warunków można jedno z tych wiązań rozerwać a wolne końcówki podstawić wodorem. Powstanie wtedy etan, który ze względu na maksymalne uwodorowanie (bez odrywania węgli całkiem) jest wtedy nazywany związkiem nasyconym. Podobna reakcja może zajść z innymi czynnikami, dlatego węglowodory z przynajmniej jednym wiązaniem podwójnym, alkeny, są bardziej reaktywne od tych z samymi pojedynczymi. Mogą uleć chlorowaniu z chlorem, polimeryzacji do polietylenu czy przyłączyć wodę i zamienić się w alkohole. 

No i oczywiście mogą łączyć się z tlenem. Etylem jest gazem palnym  i zależnie od dostępu tlenu spala się bądź całkowicie do dwutlenku węgla i pary wodnej, lub kopcąc z ubocznym węglem. Ale nie o taki rodzaj reakcji z tlenem chodzi przy powstawaniu tlenku etylenu. W bardzo specyficznych warunkach etylen przyjmuje jeden atom tlenu bez niszczenia struktury i bez oddawania wodorów. Służy do tego katalizator z metalicznego srebra. Wiązanie podwójne pęka, a brakujące końcówki łączą się z tlenem tak, że jest połączony z obydwoma. Powstaje bardzo ciekawa trójkątna cząsteczka. 


Już ta narysowana struktura powinna coś podpowiadać co do właściwości związku. Wiązania między atomami nie przebiegają zupełnie dowolnie, lecz są rozłożone w przestrzeni w pewnym układzie zależnym od struktury elektronowej atomu. Tlen nie ma zbyt wielu możliwości i zwykle przyjmuje układ, w którym jego dwa wiązania są zagięte pod kątem 105 stopni. Tak to wygląda w wodzie. Znamy związki, w których tlen jest połączony po obu stronach z jakąś częścią węglowodorową, to tak zwane etery, gdzie kąt zwykle jest nieco większy, w znanym ze zdolności usypiania eterze dietylowym jest to kąt 111 stopni.

A tutaj mamy 60. Trochę mało. W zasadzie w cząsteczce o formie trójkąta z bokami o podobnej długości nie ma za wielu możliwości, kąty powinny być zbliżone do tej wartości. Ale z drugiej strony wiemy, że gdyby grupy na końcu wiązań nie były tak blisko połączone, to tlen wolałby mieć je nieco szerzej. Tutaj więc wiązania są nagięte do innego kąta nieco na siłę, z pewną dodatkową energią potrzebną do ich utrzymania. A skoro tak, to cząsteczka jest trochę mniej stabilna i chętnie by z czymś zareagowała otwierając pierścień. 

Związki o takiej budowie, z mostkiem tlenu zamiast wiązania podwójnego, będące najkrótszymi możliwymi eterami pierścieniowymi, nabierają przez to szczególnej reaktywności i zaczęły być wyróżniane jako osobna grupa związków. Oficjalna polska nazwa chemiczna to epitlenki, ale dużo lepiej znane są pod nazwą epoksydów, będącą kalką z angielskiego epoxide. 

  O tym jak bardzo reaktywne są epoksydy przekonał się każdy, kto używał szybkoschnących klejów i przezroczystych żywic epoksydowych, gdzie pewne liniowe cząsteczki zawierające na końcach aktywne trójkąty epoksydowe reagują z innymi liniowymi cząsteczkami, mającymi na końcu grupy z którymi epoksydy chętnie reagują, tworząc ostatecznie usieciowaną, twardą masę plastyczną.

Tlenek etylenu jest tu o tyle wyjątkowy, że będąc bardzo prostą i małą cząsteczką, w normalnych warunkach jest gazem łatwo rozpuszczalnym w wodzie i bardzo łatwo wchodzi w różnorodne reakcje. Podczas takiej reakcji najczęściej jedna grupa chemiczna przyłącza się do tlenu. Powstaje trójwiązalny tlen, będący kationem, tak zwany związek oksoniowy. Ładunek dodatni na tlenie indukuje cząstkowe ładunki ujemne na węglach, do których jest przyłączony. Stają się one łatwymi miejscami ataku nukleofilów, a tymi przy takim dużym energetycznym potencjale cząsteczki może zostać cokolwiek w otoczeniu.

 W wodnych roztworach po zakwaszeniu reakcja najpierw z protonem a potem cząsteczką wody daje z  glikol etylenowy i jest to jedna z głównych reakcji do jakich się go wykorzystuje. Spośród produkowanych co roku milionów ton tego tlenku 75% zużywa się od razu na wytworzenie glikolu, triglikolu, poliglikolu i związków z grupami PEG


W reakcji z alkoholami, które są słabymi nukleofilami, powstają estry glikolu etylenowego, będące często plastyfikatorami. Z amoniakiem powstaje aminoetanol, zużywany potem do produkcji środków czyszczących. Reaguje też z dwutlenkiem węgla tworząc węglan etylenu, rozpuszczalnik o wysokiej polarności używany w akumulatorach litowo-jonowych. Takie reakcje są badane jako jedna z metod usuwania dwutlenku węgla z gazów poprocesowych. 

  Skoro tlenek etylenu tak chętnie i łatwo z wszystkim reaguje, to powinno być jasne, że jest związkiem toksycznym dla organizmów żywych. W każdym organizmie jest bowiem pod dostatkiem amin, alkoholi i innych substancji, z którymi może wejść w reakcje, zmieniając białka, enzymy, metabolity wtórne i ostatecznie też podstawiając i unieczynniając składowe DNA i RNA. Dlatego już dawno temu znalazł zastosowanie w chemicznej, niskotemperaturowej dezynfekcji. Wciąż jest jednym z najczęściej używanych związków do sterylizacji sprzętu medycznego, który nie może być autoklawowany - głównie przedmiotów i pojemników z tworzyw sztucznych, które w wysokiej temperaturze by się stopiły lub skurczyły. Dezaktywuje bakterie, pierwotniaki, drobne pasożyty a nawet wirusy.

Dzięki gazowej postaci w normalnych warunkach może być stosowany w komorach, w których przedmiot jest owiewany tym środkiem, co pozwala mu wniknąć do drobnych porów i szczelin bez żadnych rozpuszczalników. Ponieważ jest też bardzo silnie toksyczny dla owadów może być stosowany do niszczenia korników, moli i drobnych roztoczy w na przykład zabytkowych meblach, książkach, tkaninach i różnych obiektach muzealnych. 

Niestety szkodzi też większym organizmom. U ludzi narażonych na jego opary działa toksycznie na drogi oddechowe. Już stężenie 200 ppm powoduje podrażnienie błoń śluzowych nosa i gardła. Zapach związku staje się wyczuwalny dopiero w wyższych stężeniach, od 250-300 ppm, jest słodkawy, podobny do eteru. Wraz ze wzrostem ilości w powietrzu narasta działanie drażniące. Następuje uszkodzenie tchawicy i oskrzeli; dochodzi do zwężenia i zatkania drobnych oskrzelików czy uszkodzenia pęcherzyków płucnych. Stężenia przekraczające 800 ppm są już uważane za bezpośrednio groźne dla życia. Wydaje się, że szczury i myszy są bardziej wrażliwe od człowieka. Efekty uszkodzenia płuc nie są widoczne od razu, rozwijają się w ciągu kilkudziesięciu godzin od narażenia.

Część związku ulega wchłonięciu do organizmu dając niespecyficzne objawy nawet przy niskich dawkach. Narażeni zgłaszają bóle głowy, nudności i wymioty. Substancja wydaje się mieć powinowactwo do układu nerwowego. Osoby przewlekle narażone na niskie dawki (już 3 ppm w czasie pracy) doświadczały neuropatii odwodowych, gorszej koordynacji ruchowej i pogorszenia pamięci. 

Skutkiem narażenia jakie jest najbardziej interesujące i wywołuje najczęściej alarm, jest jednak rakotwórczość. Każdy związek, który jest na tyle reaktywny, że jest w stanie utlenić, halogenować a zwłaszcza alkilować struktury biologiczne, w tym DNA, będzie doprowadzać do mutacji i zagrożenia nowotworami. A tlenek etylenu jest akurat na tyle silnym środkiem alkilującym, równocześnie jednak nie rozkładającym się natychmiast po rozpuszczeniu w wodzie i przez to mogącym działać na organizm także poza płucami. U szczurów przewlekła, ciągła ekspozycja na dawki poniżej wywołujących podrażnienia zwiększa częstość takich nowotworów jak międzybłoniak, białaczka czy guzy mózgu. U ludzi narażonych zawodowo na ten związek efekty są bardziej subtelnie i nie takie bardzo silne. W analizie podgrup widać nieco większą częstość nowotworów piersi u kobiet, guzów limfoidalnych u mężczyzn i nowotworów kości ogółem. Zarazem jednak wiele analiz nie wykazuje aby generalnie zwiększało to śmiertelność z powodu nowotworów. 

Wyniki te doprowadziły do ostrego wyśrubowania norm narażenia na związek. Na przykład w Unii Europejskiej tlenek nie może być używany do odkażania żywności ani do zabijania owadów we wnętrzach budynków. Ostatnie przypadki wycofania żywności, takiej jak nasiona sezamu czy mleko w proszku to zapewne wynik fumigacji tlenkiem magazynów w Indiach, w których przechowywano te produkty. Jeden z ostatnich takich przypadków to wycofanie lodów, zawierających jako zagęstnik mączkę chleba świętojańskiego, w której wykryto tlenek etylenu na niskich poziomach. Stało się to zresztą powodem sporu między różnymi instytucjami regulującymi. Proponowano dopuszczenie do obrotu produktów zawierających tlenek w ilościach wykrywalnych ale niemożliwych do oznaczenia ilościowego (ilość tak mała, że z powodu ograniczonej czułości metody nie da się powiedzieć dokładnie ile, a jedynie, że jest). Ostatecznie po alarmach organizacji konsumenckich przyjęto zasadę, że każda wykrywalna ilość dyskwalifikuje żywność, bo nie da się ustalić bezpiecznej dawki.[f] Kwestią sporną jest, czy można to stosować do żywności, w której surowiec z przekroczoną normą został już przetworzony i w ostatecznym produkcie zanieczyszczenie przestaje być wykrywalne bo być może się rozłożyło.[b]
-------------------------------------
Źródła

[b] https://www.brusselstimes.com/news/belgium-all-news/181057/not-all-recalls-for-ethylene-oxide-are-necessary-warns-belgiums-food-safety-agency/

[f] https://www.foodwatch.org/en/news/2021/toxic-ethylene-oxide-in-foods/?cookieLevel=not-set

https://www.epa.gov/sites/default/files/2016-09/documents/ethylene-oxide.pdf

https://www.ciop.pl/CIOPPortalWAR/file/89150/2019121311453&Tlenek-etylenu.pdf

https://en.wikipedia.org/wiki/Ethylene_oxide



wtorek, 27 lipca 2021

Chemiczne Wieści (24.)

 Węże pokażą skażenie

Ostatnie badania prowadzone w Japonii, w terenach skażonych po awarii elektrowni jądrowej Fukushima, koncentrowały się na próbach znalezienia jakiegoś znacznika wskazującego na lokalny poziom skażenia ekosystemu. I okazało się, że całkiem niezłym, dużo lepszym od myszy i ptaków, są węże. Spędzają praktycznie cały czas na ziemi i lubią się zaszyć w jamach i norach. Pokonują w ciągu dnia do 65 metrów ale zwykle krążą w pewnych niedużych terytoriach. Stopień napromieniowania takiego węża odzwierciedla ilość radionuklidów dostępnych biologicznie w glebie, roślinach i w trudno dostępnych szczelinach, i norach, do których nie zajrzy radiometr. [1]

Najbardziej izolująca sól

Nowy materiał wytworzony przez badaczy z Liverpool University jest obecnie związkiem nieorganicznym o najmniejszym przewodnictwie cieplnym. 


 

Większość materiałów izolacyjnych jakie znamy, to zwykle nasycone związki organiczne, lub materiały puszyste, posiadające w strukturze dużo luk wypełnionych powietrzem, które ma niską przewodność cieplną. Tak jest ze styropianem, gdzie polistyren zamyka w sobie wiele luk wypełnionych gazem; tak jest z wełną mineralną czy gazobetonem. Teraz natomiast odkryto materiał, który będąc lity ma przewodnictwo cieplne równie małe co w przypadku powietrza.

 W badanym materiale wykorzystano dwa rodzaje związków, tworzące domeny, które połączono w kompozyt. Oba składniki tego połączenia wykazywały niskie przewodnictwo cieplne dzięki szczególnej budowie krystalicznej, która nie sprzyja przenoszeniu fononów (kwantów drgań sieci), rozpraszając je i zmniejszając ruchliwość. Ich połączenie ma jeszcze lepsze właściwości, dzięki pewnym efektom addytywnym. Jak piszą autorzy, jeśli przewodność cieplną stali zapisać jako 1 jednostkę, to tytan ma 0,1 tej przewodności, cegła 0,01; nowy materiał 0,001 a powietrze 0,0005. 

Jeden ze składowych związków powinien być dobrze znany studentom - wytrącanie oksychlorku bizmutu z roztworów chlorku jest często podawaną reakcją charakterystyczną. Jest to sól, której kryształy mają warstwową strukturę, z płaszczyzną kationów bizmutu mocno związanych z tlenem i chlorem i przedzielonych nietypowym stykiem dwóch warstw anionów chlorkowych. Aniony chlorkowe słabo ze sobą oddziałują, stąd odległość warstw na linii Bi-Cl---Cl-Bi jest dość duża. Kryształy związku  zaczynają z tego powodu wywoływać iryzację światła padającego, a ponieważ wytrącający się osad jest drobnokrystaliczny, tworzą opalizującą masę podobną do perłowej. 

Drugi składnik to półprzewodnik tlenek-selenek bizmutu, który już wcześniej znany był z niskiego przewodnictwa cieplnego. Sztuką było połączenie warstw tych obu związków w jeden, ciągły materiał, i to tak, aby były odpowiednio usytuowane przestrzennie. Oba wykazują bowiem wyraźną anizotropię właściwości i ich przewodnictwo cieplne bardzo mocno zależy od kierunku. Przy odpowiednim zgraniu obu kierunków efekty przewodnictwa wzajemnie się uzupełniły i otrzymany kompozyt ma przewodność 100-10 razy mniejszą niż składniki mieszaniny.[2]

Potencjalne zastosowania są oczywiste - lepsza izolacja tych układów, w których straty ciepła ograniczają wydajność, na przykład w silnikach cieplnych i instalacjach.

Przezroczysta farba chłodząca

Chłodzenie radiacyjne to metoda odprowadzenia ciepła przez wypromieniowanie go na zewnątrz. Znanym przykładem są radiatory w sprzętach elektronicznych, które z jednej strony odbierają ciepło od grzejącego się elementu, a z drugiej oddają je w przestrzeń. W niektórych zastosowaniach, jak odbiór ciepła z urządzenia, jest to wystarczające. Ale czasem użycie radiatorów chłodzących może być kłopotliwe. Ochłodzenie w ten sposób mocno nagrzewanej ściany budynku wymaga radiatorów, które ją w praktyce zabudują. Jednym z takich układów, które bywają czasem używane, jest warstwa z odbierającego ciepło emitera, nakryta szybką, która wypuszcza promieniowanie cieplne na zewnątrz. Ponieważ szybka ta przepuszczała i światło i ciepło, to układ tracił właściwości gdy był wystawiony na słońce, to bowiem promieniuje dość dużą część energii jako bliską podczerwień. Podczerwień ze słońca wpadnie więc do układu przez przezroczyste okienko i nagrzeje radiator. Alternatywą są powierzchnie lustrzane, które odbijają część promieniowania cieplnego i słonecznego z zewnątrz i nie pozwalają wnętrzu się nagrzać. W praktyce oznacza to, że szyby będą mocno przyciemniały widok.

Pomysł aby jakoś temu zaradzić nie był trudny i zadaniu podołali badacze z Korei. Opracowali oni warstwę, którą można nałożyć na przezroczyste materiały, która przepuszcza światło widzialne, odbija bliską podczerwień a przepuszcza podczerwień daleką. W ten sposób światło widzialne wnika do środka bez przeszkód, zaś bliska podczerwień słońca jest zatrzymywana. Z kolei wnętrze okryte taką osłoną nie jest nagrzane tak mocno, aby emitować bliską podczerwień (taką emitują ciała nagrzane do temperatury bliskiej żarzeniu się na czerwono), więc większość energii wydostanie się na zewnątrz jako podczerwień średnia i daleka. Nierównowaga radiacyjna takiego układu jest dostateczna, aby nawet w pełnym słońcu wnętrze osłony pozostawało chłodne. [3]

-------

[1] https://bioone.org/journals/ichthyology-and-herpetology/volume-109/issue-2/h2019282/Movement-Behavior-and-Habitat-Selection-of-Rat-Snakes-Elaphe-spp/10.1643/h2019282.short 

[2] https://science.sciencemag.org/content/early/2021/07/14/science.abh1619 

[3] https://onlinelibrary.wiley.com/doi/full/10.1002/adom.202002226

piątek, 9 lipca 2021

Zioła to też chemia

W tematyce ziół, medycyny alternatywnej i żywienia funkcjonuje wiele mitów, które przemawiają do wyobraźni, chętnie zresztą wykorzystywanych w reklamach. Jednym z takich charakterystycznych przypadków jest przekonanie, że to co naturalne jest po prostu zdrowe, a jego przeciwieństwem jest "chemiczne". A skoro tak, to nieodmiennie musi być szkodliwe.

Oczywiście, gdy zapytać wprost, każdy się żachnie, że to tylko taki skrót myślowy. Ale niektórzy powtarzają go całkiem serio i na jego podstawie dokonują wyborów. Nakręcanie kontrastu między "naturalnym dobrym" a "sztucznym szkodliwym" doprowadza w końcu do takich absurdów, jak producenci zapewniający klientów, że ich krem czy suplement nie zawiera dosłownie żadnych związków chemicznych. Czyli nie zawiera niczego, bo wszystko, czego możemy dotknąć czy posmakować, to jakaś substancja chemiczna. Innym przejawem jest ukrywanie w składach dodatków pod różnymi formami, które brzmią dużo lepiej, bo się nie kojarzą. I tak na przykład zupki instant zapewniające nas o braku glutaminianu wymieniają w składzie ekstrakt drożdżowy, zawierający tego związku pod dostatkiem. Natomiast nazwanie witaminy B12 jej chemiczną nazwą cyjanokobalamina to marketingowa śmierć i wszyscy tego unikają.




Sytuację taką nazywa się czasem chemofobią, bo jest to w wielu przypadkach obawa nieracjonalna, oparta nie o wiedzę, lecz o szybkie skojarzenia zakodowane w głowach przez media. Jak coś ma chemiczną nazwę, to musi być złe. Jak nazwa jest długa i zawiera cyfry, to musi być złe bardzo.

Takie uproszczone metody pojmowania same w sobie nie są złe, bo nie każdy chce być od razu specjalistą. Natomiast czasem mogą się okazać zbyt proste, prowadzić do błędów i ostatecznie szkodzić. Przypomina mi to trochę wszystkie te mity na temat zbierania grzybów, pokutujące u osób, które zbierają, choć się w ogóle nie znają. Taki grzybiarz znajdując nieznany grzyb decyduje więc, że wygląda mu on na jadalny, bo nie jest gorzki, nie czernieje z nim cebula i nadgryzły go ślimaki. I za którymś razem zjada w domu sromotnika, który przechodzi te testy bez problemu.

Chemofobicznym przypadkiem takiej sytuacji jest najczęściej przepłacanie za dodatki, zawierające związki wyciągnięte z jakiegoś naturalnego źródła, aby zastąpić nimi dokładnie te same związki pochodzenia przemysłowego, które nie różnią się budową, ani nawet skrętnością. Przykładem kwas cytrynowy "naturalny" bo z cytryn, poszukiwany w zastępstwie sklepowego, któremu rozsyłany między ludźmi mailowy łańcuszek przypisuje rzekomą rakotwórczość.

Ma to jednak swoją ciemniejszą stronę - wywyższanie na piedestał wszystkiego co naturalne skutkuje tym, że ludzie tracą ostrożność. A nie wszystko co znajdziemy w naturze jest zawsze dobre i pasuje do naszego organizmu. Wspomniany sromotnik bez wątpienia jest produktem bardzo naturalnym. Pojmując wszystko w taki uproszczony sposób ludzie mogą czasem sobie zaszkodzić. Jeśli chcesz zadziałać na swój organizm naturalną substancją, która rzeczywiście jest aktywna i przynosi skutki, lepiej abyś wiedział co takiego właściwie zażywasz, jakie to wywołuje efekty i jaka ilość jest właściwa. Bo zioła to też bardzo wiele związków chemicznych. A związek chemiczny leczniczy od trującego różni tylko dawka.

Próbowanie bez wiedzy co to właściwie nam robi, i bez pilnowania ilości, bo "to zioła, więc nie mogą zaszkodzić" przynosi różnorodne problemy. Cierpiący na ból żołądka z powodu nadkwasoty piją używaną przy niestrawności miętę, a ta pobudza żołądek do wydzielania większej ilości kwasu i tak kółko się zamyka. Kobiety doświadczające osłabienia z powodu zbyt obfitej miesiączki piją dla rozgrzania herbatę z imbirem, który rozrzedza krew i zwiększa obfitość miesiączek.

Jednym z takich niewinnie wyglądających przypadków jest dość często spotykana lukrecja. Roślina o bardzo słodkich korzeniach, która znalazła zastosowanie jako przyprawa, ale ma też ciekawe właściwości lecznicze. Jeśli ktoś cierpi na podrażnienia i łatwo się pojawiające wrzody żołądka czy jelit, bądź też ma problem z przewlekłym, suchym kaszlem, a nie chce się faszerować kodeiną, można by mu polecić wyciąg z lukrecji tradycyjnie stosowany w takich przypadkach. Ale jeśli równocześnie osoba taka ma nadciśnienie, choroby serca wymagające podawania leków, czy nadmierne wydalanie potasu, to może sobie wtedy poważnie zaszkodzić.





Jednym z efektów wyciągu z lukrecji jest zwiększenie wydalania potasu i zatrzymywanie sodu. Większość leków na nadciśnienie działa natomiast dokładnie odwrotnie. Dlatego zażywanie dostatecznie dużych dawek, i dostatecznie długo, powoduje wzrost ciśnienia tętniczego, co u osób już i tak mających z tym problemy, może być niebezpieczne. Właściwa ilość potasu jest też potrzebna do odpowiedniego kurczenia się mięśni i pracy serca. Zbyt duży spadek stężenia powoduje osłabienie nóg i tętna. Jeśli sytuacja taka przytrafi się lubiącej słodkie rzeczy osobie w podeszłym wieku, która musi dbać o poziom cukru i w zastępstwo wybiera produkty z naturalnymi słodzikami, lekarz zwali winę na starość, w której ma się często wysokie ciśnienie, słabe nogi i problemy z sercem.

Do przedawkowania trzeba oczywiście dość wysokiego spożycia, rzędu kilku gramów korzenia lub ekstraktu z takiej ilości każdego dnia, ale o to wcale nie tak mocno trudno. Ponieważ lukrecja jest ziołem, i jest naturalna, wiele osób nie zastanawia się specjalnie nad dawkowaniem. Gdy dostaną płynny ekstrakt do słodzenia czy leczenia, mniej się przejmują tym, że wlało im się do szklanki trochę więcej, niż obawialiby się wtedy, gdy na rękę z buteleczki wysypią się dwie kapsułki suchego wyciągu za dużo. Jako przyprawa pojawia się w wielu herbatkach smakowych. Poprawia smak gorzkich mieszanek ziołowych, jest dodawana do cukierków i innych słodyczy, jak na przykład skandynawskie Salmiakki. Jeśli ktoś nie ma zwyczaju czytać uważniej napisów z tyłu opakowań, może się nie zorientować, że zbiegiem okoliczności spożywa lukrecję z kilku różnych źródeł. A powinien to wiedzieć, jeśli ma jeden z opisanych tu problemów zdrowotnych.

W krajach arabskich opisywano występowanie parestezji kończyn wywołanych piciem mocnego naparu z lukrecji podczas Ramadanu, ma ona bowiem ponoć hamować uczycie głodu. [1]

Na podstawie badań ze zdrowymi ochotnikami ustalono prawdopodobną maksymalną bezpieczną ilość na 200 mg dziennie glicyrrhyzyny, głównej substancji czynnej.[2] W handlu dostępne są ekstrakty z korzenia lukrecji o zawartości tego składnika do 20%, więc ryzyko objawów ubocznych pojawia się już przy przekroczeniu dawki 2-3 ml dziennie. Osoby z wyraźnym nadciśnieniem czy szybką utratą potasu z organizmu zaczną odczuwać skutki wcześniej.

Dlatego dla nieznających się na ziołolecznictwie dobre są właściwie skonstruowane ulotki, mówiące o wskazaniach, przeciwwskazaniach i dawkowaniu. Opakowania herbatek z domieszką lukrecji zwykle zawierają ostrzeżenie dla nadciśnieniowców, aby nie zażywali ich dłużej niż miesiąc. Podobnie powinno być więc też w innych przypadkach. Opakowanie dziurawca niech mówi o zwiększaniu wrażliwości skóry na słońce. A opakowanie wrotyczu lub piołunu niech ostrzega osoby w ciąży, że spożycie może się skończyć zbyt wczesnym i niebezpiecznym jej zakończeniem.
I wymaganie takich ostrzeżeń to nie jest żadna próba zakazania ziół - o co nie tak dawno się w Polsce pieklono.
------------------
[1] https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3498851/

[2] https://pubmed.ncbi.nlm.nih.gov/8072387/

sobota, 15 maja 2021

10 lat już minęło - jak jeden dzień




 Tak. Ten blog istnieje już 10 lat. Kupa czasu.

 

Na początek coś z danych statystycznych: blog przez ten cały czas zebrał 1,8 mln wyświetleń i 1,57 tys. komentarzy.

Najpopularniejsze artykuły tego okresu:

* Ałun - 54 tysiące wyświetleń

* Dlaczego grzyby sinieją 43 tysiące wyświetleń

* Witamina lewa i prawa - 25 tysięcy

* Czy Kaczor Donald odkrył karbeny? - 24 tysiące

* Jak mieszać aby nie namieszać? - 22 tysiące

* Soda na raka, czyli ciastko z trucizną i komórka która gryzie - 21 tysięcy

* Benzen w napojach - 21 tysięcy

* Podstępny grzybek - 19 tysięcy

* Otrzymywanie aspiryny - 17 tysięcy

* Sól na lód - 17 tysięcy 

Przez ten czas w moim życiu zdarzyło się wiele. Studia, kolejne prace, nowe znajomości. W sumie patrząc na to tak ogólnie jest to dla mnie jakaś kronika, zapisująca zmieniające się zainteresowania, wiedzę, miejsca. Pewne rzeczy z zajęć na studiach zapamiętałem lepiej, bo musiałem je przetrawić aby o nich napisać. Gdy dziś wracam do starych wpisów, wracają mnie wspomnienia, jak wyglądał ten opisany dzień, w jakiej sytuacji pisałem artykuł, które dodawałem z Biblioteki na uczelni, które z pierwszego laptopa, które jako pierwsze wystukałem na komórce, czego długo unikałem, bo jakość autokorekty mnie odstręczała.  

Przypomina mi się jak nie pisałam prawie pół roku gdy miałem dola bo nie szły mi studia doktoranckie na UW, moje wielkie marzenie, z którego musiałem zrezygnować. Bo może w złym miejscu, może za mało umiałem, może trafiłem na niewłaściwych ludzi. Pierwszy promotor był w porządku ale synteza mi strasznie źle szła, nie udało się znaleźć dofinansowania i wszystko groziło przystosowaniem na nie wiadomo ile. Gdy zmieniłem promotora, żeby tego nie marnować, trafiłem na krystalografię bo tylko tam jeszcze kogoś przyjmowali. No i cóż, to jest ciekawa dziedzina, wiem o tym, ale szybko zrozumiałem, że nie chcę tego robić w życiu...

Co dalej, nie wiem. Pewnie będę dalej coś dopisywał, już mi weszło w nawyk. Może zacznę pisać książkę? To też będzie jakiś sposób popularyzacji.  Czas pokaże.