Strona Główna FORUM-NURAS
Froum dla nurkujących i nie tylko ...

FAQFAQ  SzukajSzukaj  UżytkownicyUżytkownicy  GrupyGrupy    KalendarzKalendarz
RejestracjaRejestracja  ZalogujZaloguj  AlbumAlbum  Chat

Poprzedni temat «» Następny temat
Porównanie algorytmów deco
Autor Wiadomość
Marek Macner 



Stopień: kilka
Kraj:
Poland

Wiek: 65
Dołączył: 13 Gru 2002
Posty: 529
Skąd: Bielsko-Biała
Wysłany: 22-01-2006, 15:36   Porównanie algorytmów deco

Czym różni się VPM od ZHL-a, czyli jakie są różnice pomiędzy algorytmami
"bąbelkowymi" reprezentowanymi przez VPM-a a algorytmami klasycznymi
reprezentowanymi przez ZHL-a (i jego wersję o nazwie CDM) i jeśli takie
różnice są, to co może z nich wynikać?

Dokonanie tego porównania jest stosunkowo łatwe, gdyż oba te algorytmy
są łatwo dostępne i łatwo porównywalne. Owa łatwość porównania opiera
się na tym, że istnieją w wersji źródeł programu komputerowego, którego
celem jest obliczenie profilu dekompresyjnego i:
- oba programy zostały napisane przez tego samego człowieka, to jest
Erika c. Bakera - zatem rozumienie poszczególnych pojęć, praw i zasad
jest w obu przypadkach identyczne,
- oba są w tym samym języku, czyli w Fortranie - więc nie ma różnic
implementacyjnych specyficznych dla języka programowania, które mogłyby
utrudnić dokonanie analizy.

Dowolny algorytm deco składa się z 2 części(w uproszczeniu): część nasycania i część odsycania. Część nasycania obejmuje okres od chwili zanurzenia się pod powierzchnię wody (czyli od chwili, gdy ciśnienie otoczenia zaczyna być większe od ciśnienia wewnątrz tkanek nurka) do chwili rozpoczęcia wynurzania kończoncego nurkowanie (czyli do chwili, gdy ciśnienie otoczenia zaczyna się zmniejszać) - bezpośrednio po fazie nasycania następuje faza odsycania zakończona osiągnięciem przez nurka powierzchni wody na koniec nurkowania (pomijam tu dalszy okres odsycania na powierzchni i ewentualne dalsze nurkowania powtórzeniowe).

No to zaczynamy analizę porównawczą:
I. założenia generalne algorytmów:
oba używają tych samych tkanek i półczasów nasyceniowych - różnic nie ma.

II. faza nasycania:
do obliczenia ile gazu inertnego znajdzie się w tkankach na skutek tego,
że pojawił się gradient ciśnienia (różnica ciśnienia gazu pomiędzy daną
tkanką a otoczeniem) oraz, że gradient ten istnieje przez pewien okres
czasu - oba używają tych samych równań Schreinera (dla czasu w którym
zmienia się ciśnienie otoczenia) i Haldana (dla czasu w którym ciśnienie
otoczenia jest stałe) i parametry tych równiań w obu przypadkach zależą
jedynie od: różnicy ciśnień, półczasu danej tkanki i czasu w jakim
tkanka zostaje poddana owej różnicy ciśnień. Zatem - różnic nie ma.

III faza odsycania:
w tej fazie mamy do oceny 3 elementy w każdym algorytmie: pierwszy - to
jak algorytm wyznacza głębokość od której wg niego zaczyna się
dekompresja - to znaczy głębokość poniżej której nie występuje odsycanie
tkanek, drugi - to jak algorytm wyznacza głębokość przystanku deco - to
znaczy, głębokość po wynurzeniu się na którą nie ma jeszcze choroby
dekompresyjnej i trzeci - jak algorytm dokonuje oceny, czy wynurzenie się na tą proponowaną głębokość przystanku nie powoduje przekroczenie jakichś parametrów, które sam uznaje jako krytyczne.
Zatem:
a) wyznaczenie głębokości, od której zaczyna się dekompresja: w obu
algorytmach stosowana jest ta sama funkcja mająca te same parametry -
różnic nie ma.
b) wyznaczenie głębokości na której trzeba się zatrzymać - zrobić
przystanek deco. Co do metody liczenia - w obu algorytmach jest ona taka
sama, to znaczy: algorytm proponuje wynurzenie się do takiej głębokości
na której gradient ciśnienia jaki występuje pomiędzy ciśnieniem gazu
inertnego w tkance a ciśnieniem otoczenia jest mniejszy od wartości jaką
przyjęto za wartość referencyjną. W ZHL-u jako tą wartość referencyjną
przyjęto pewną stałą wartość nazywaną M-wartością, natomiast w VPM-ie
wartość tą wylicza się w drodze skomplikowanych obliczeń bazujących na
teorii powstawania mikrobąbli i zmian ich wielkości w zależności od
zmian ciśnienia je otaczającego. Zatem - różnica jest.
c) kontrola, czy zaproponowany przystanek nie powoduje przekroczenia
wartości uznanych jako krytyczne. I znowu w obu algorytmach używana jest
ta sama funkcja z tymi samymi parametrami - zatem różnic nie ma.

Podsumowywując: jedyną różnicą w obu tych algorytmach jest to że jeden z
nich (ZHL) przyjmuje, że nasz organizm reaguje tak samo na każdą różnice
ciśnienia, co znajduje odzwierciedlenie w tym, że stosuje stałą
M-wartość ("M-stałość"), drugi (VPM) przyjmuje, że reakcje organizmu są
zmienne i zamiast stałej wartości dopuszczalnego gradientu ciśnienia
jaki nie powoduje jeszcze choroby dekompresyjnej - przyjmuje wartość
zmienną, podając formułę matematyczną na jej obliczenie ("M-zmienność").
Zauważyć jednak należy, że nadal uznaje jakby "zwierzchność" ograniczeń
stałych - dokonując wg nich oceny-walidacji swoich wyników.

Teraz jak się ma stosowanie "M-stałości" do "M-zmienności".
Otóż wprowadzenie takiej a nie innej - wyrażonej w postaci konkretnej
funkcji matematycznej, z konkretnymi parametrami "M-zmienności" w
powiązaniu ze stosowaniem tych samych kryteriów oceny głębokości od
której zaczyna się dekompresja i powyżej której jest choroba
dekompresyjna - daje następujące efekty:
- oba algorytmy nie proponują przystanków poniżej pewnej, tej samej dla
obu głębokości, gdyż oba uważają, że poniżej niej następuje nasycanie
tkanek a nie ich odsycanie,
- oba algorytmy nie proponują przystanków powyżej pownej, tej samej dla
obu głębokości, gdyż oba uważają, że powyżej tej głębokości następuje
takie przesycenie tkanek, które powoduje powstanie choroby dekompresyjnej.
- "M-zmienność" jest początkowo mniejsza od "M-stałości", w pewnym
momencie są równe, a póżniej "M-zmienność" staje się większa od
"M-stałości" co przekłada się wprost na to, że pierwsze (licząc od
chwili rozpoczęcia wynurzania z dna) przystanki dekompresyjne
proponowane przez "M-zmienność" wypadają głębiej niż te proponowane
przez "M-stałość", natomiast póżniej, na końcowych, płytkich
przystankach "M-zmienność" pozwala opuścić je szybciej niż to sugeruje
"M-stałość" - czyli daje przystanki krótsze.

Zauważyć także należy, że ze względu na to, iż stosowania przez oba
algorytmy funkcja nasycania/odsycania tkanek nie jest linią prostą - to
osiągnięcie tego samego typu różnic w proponowanych przystankach jest możliwe na dwa sposoby:
- sposób zastosowany w VPM, czyli funkcja zmienna, lub
- sposób zastosowany w CDM, czyli stałe M-wartości nieco inne niż w
ZHL-u wraz z dodaniem dodatkowych tkanek o innych półczasach.

Sposób pierwszy (VPM) wywodzi się z doświadczalnego badania zachowania
się mikrobąbli gazowych w żelach poddawanych zmiennym ciśnieniom
otoczenia i tą drogą dobierania parametrów funkcji "M-zmienności" od
których nie występuje choroba dekompresyjna, a następnie po
stwierdzeniu, że jednak wystąpił przypadek chorobowy - korygowanie tych
parametrów już bez wracania do fazy doświadczeń z bąblami i żelem (one
odbyły się w latach osiemdziesiątych XX wieku), tak aby wydłużyć
całkowity czas dekompresji.

Sposób drugi (ZHL) wywodzi się z doświadczalnego badania przypadków
wystąpienia choroby dekompresyjnej u nurków i tą drogą dobierania takich
"M-stałości" od których nie występuje choroba dekompresyjna. Kilka
firm/organizacji dokonywało takich porównań i badań statystycznych i
otrzymały różne zestawy "M-stałości", co przełożyło się na niezależne,
różne zestawy "M-stałości" - Buhlmann, DSAT, COMEX, DCAP, US
Navy-Workmann, itp - w zależności od tego, kto i do jakich statystyk
miał dostęp.

No i teraz: co może wynikać z tej różnicy? Różne rzeczy (prawdopodobnie
- ile osób, tyle wniosków) - na przykład to:

Ktoś, kiedyś (Yount et co.,1986 i wcześniej) wpadł na pomysł, by zbadać jak zachowują sie bąble gazowe w żelach, bo postawił hipotezę, że ciało nurka to taki żel i jak zamodeluje zachowanie bąbli w żelu, to model ten będzie opisywał zachowanie się bąbli w żywym nurku.
Jak pomyślał, tak zrobił, znalazł możliwości techniczne wykonania badań. Zrobił ileś tam doświadczeń, pomierzył bąble i do wyników dopasował wieloparametrową funkcję matematyczną. Nieco później, ktoś inny (Wienke, 1990), kto miał znacznie większą wiedzę matematyczną i informatyczną, a poza tym miał do dyspozycji niezłe superkomputery dorobił jeszcze bardziej skomplikowane funkcje i parametry.
W wyniku i w oparciu o efekty ich działań, oni sami i inni - wbudowali te efekty w postaci "M-zmienności" w istniejący algorytm oparty o "M-stałości" funkcjonujące od dawna. W efekcie algorytm zaczął dawać profile o znacznie (nawet o 50%) skróconych czasach dekompresji w stosunku do istniejących. Nurkom - tylko w to graj. Od "zawsze" długość dekompresji była największym problemem i chodziło o to jak wiarygodnie uzasadnić, że może być krócej. Olać stare zasady i wynurzyć się szybciej? To wymaga decyzji o narażeniu się na ryzyko i testowania na swoim organizmie. Co innego, gdyby ktoś, o znacznym autorytecie powiedział, że można. No i autorytety powiadziały - OK. Przecież laboratoria Los Alamos - to najwyższa półka. Oni wiedzą co robią - loty kosmiczne, bomba atomowa, itp.
Wielu do tego tak się zapaliło, że zapomniało o jednym słowie użytym przez autora tego pomysłu (Younta) - "hipoteza".
Szybko powstały komercyjne i "non-profit" implementacje. (Sam osobiście już w 2001 roku jako jeden z pierwszych w kraju wszedłem w posiadanie drogą kupna oprogramowania Abyss z RBGM-em.) Początkowo, wszystko było OK. Ludzie robili krótsze dekompresje i nic się nie działo.
Organizacje stojące nieco "z boku" - takie jak DAN, czy NOAA - zaczęły robić badania. Pojawiły się nowe, nieinwazyjne metody diagnostyczne jak ultrasonografia dopplerowska - nadająca się do badania występowania bąbli w krwioobiegu - to badano. I co zbadano, a raczej jakie wnioski wysnuto? To, że jak ktoś zaczyna dekompresję głębiej - to ma mniejsze bąble, a jak płycej - to ma większe. Aż tyle i tylko tyle.

Później jednak zaczęły pojawiać się problemy. Problemy i na nurkowaniach "płytkich" i na nurkowaniach bardzo głębokich - skrócenie czasu dekompresji niejako "ułatwiało" podjęcie decyzji o tym by pójść głebiej.
Co na te problemy autorzy implementacji? Zacząć weryfikować podstawy i badać od nowa żele? Po co? Przecież to by była strata czasu i kasy, bo nagle bąble i żel nie zaczną się zachowywać inaczej niż kiedyś. No to trzeba zmienić parametry i wydłużyć czas dekompresji. Ta metoda była bezpieczna - bo stosowana od początku, od dziesiątek lat. Początkowo wydłużano czasy płytkich przystanków, jak ludzie zaczęli nurkować coraz głębiej - to czasy coraz głębszych przystanków. Efekt - upodobnienie się "górnej" części profilu dekompresyjnego "bąblowego" do "klasycznego".
A co na to autorzy? Jak Elyatt planował zrobienie na RBGM-ie coraz to głębszych nurkowań - to Wienke w pewnym momencie mu odpowiedział: "Nie rób tego! To nie jest pewne." (korespondencja e-mail na stonie Elytatta). Skutek: po ostatnim zrobinym wg profili "bąblowych" RBGM nurkowań Elyatt ląduje na wiele miesięcy w szpitalu i komorach, po czym po ustąpieniu paraliży musi się nieomal uczyć od nowa chodzić.

Co przez powyższe chcę powiedzieć? Na pewno nie to, że Yount czy Wienke to głupcy. Wręcz przeciwnie - dzięki takim jak Oni wiemy więcej. To więcej - to albo coś rzeczywiście nowego, albo potwierdzenie, że coś co dotychczas traktowaliśmy jako pewnik - takim pewnikiem nie jest. I za to, za ich pracę, należy się im szacunek i uznanie. Co innego z "implementatorami" - wygląda na to, że to oni brną w ślepą uliczkę. Poświęcone nakłady, reklama, źle rozumiany prestiż nie pozwalają im na weryfikację tego co robią. Tymczasem to co robią - nie ma już kompletnie nic wspólnego z tym, od czego zaczynali.
 
 
 
 
 
TomS 


Stopień: instr. SDI/TDI, PADI
Kraj:
Greenland

Wiek: 56
Dołączył: 20 Paź 2004
Posty: 2801
Skąd: Warszawa
Wysłany: 23-01-2006, 02:31   

Czy trwają gdzieś prace nad nowym, dobrym algorytmem?
 
 
Marek Macner 



Stopień: kilka
Kraj:
Poland

Wiek: 65
Dołączył: 13 Gru 2002
Posty: 529
Skąd: Bielsko-Biała
Wysłany: 23-01-2006, 07:32   

Prace nad parametrami dekompresyjnymi trwają nadal w wielu ośrodkach/firmach/organizacjach takich choćby jak COMEX czy US Navy.
Odnośnie CDM-a który wspominam na wstępie informacje można znaleźć na:
http://www.scubaengineer.com/
oraz
http://www.inspired-training.com/
Nie jest to reklama/market bo ani nie jestem w żaden sposób związany z nimi, ani nie sprzedaje/dystrybuuje ich produktów.
 
 
 
 
 
wrobel.cwirek 



Stopień: PADI AOWD
Kraj:
Poland

Wiek: 47
Dołączył: 10 Sie 2005
Posty: 339
Skąd: Gdynia
Wysłany: 23-01-2006, 08:54   

jakie algorytmy (w/g nazewnictwa na pl.rec.nurkomania) stosuje sie w obecnych kompach (np. Suunto ;-)) ? Te z bomblami czy bez?

Pozdrawiam.
 
 
Marek Macner 



Stopień: kilka
Kraj:
Poland

Wiek: 65
Dołączył: 13 Gru 2002
Posty: 529
Skąd: Bielsko-Biała
Wysłany: 23-01-2006, 09:01   

te "bez".
To co firmy produkujące komputery nurkowe nazywają jako RBGM, to jest w istocie ZHL (Buhlmann) z parametrami zmodyfikowanymi wg tego co policzył dla nich Wienke RBGM-em.
Jak sam Wienke pisze w jednej ze swoich publikacji - dało to efekt statystyczny zbliżenia tak zmodyfikowanego ZHL-a do RBGM-a w 95% dla zakresu nurkowań jakie dokuszczeją te komputery. Szacowana stopa możliwości wystąpienia choroby dekompresyjnej dla tak zmodyfikowanego algorytmu jest wg niego o ok 0.01% większa od tej jaką możnaby oczekiwać na nurkowanianiach na te same głębokości i czasy przy stosowaniu "czystego" RBGM-a.
W związku z tym, iż są to komputery w istocie swojej "rekreacyjne" (Suunto, Mares) - to należałoby przyjąć, że dotyczy to rekreacyjnego zakresu nurkowań, czyli głębokości rzędu 40 metrów i nie wchodzenia w konieczność wykonywania formalnych przystanków dekompresyjnych.
 
 
 
 
 
Judas 



Stopień: instruktor
Kraj:
Saint Kitts and Nevis

Wiek: 52
Dołączył: 26 Lut 2002
Posty: 533
Skąd: Warszawa
Wysłany: 23-01-2006, 10:45   

Chcialbym wszystkich czytajacych powyzszy tekst Marka Macnera poinformowac ze toczy sie dyskusja na ten temat na pl.rec.nurkowanie w watkach "nowa ksiazka o nurkowaniu" i "CDM" i w rzeczywistosci wcale nie jest tak jak w powyzszym tekscie...

Pozdrawiam
 
 
bosze 

Dołączył: 08 Gru 2005
Posty: 58
Skąd: poznań
Wysłany: 23-01-2006, 14:49   

czy jak?

[ Dodano: 24-01-2006, 13:43 ]
miało być "czyli jak?"
 
 
Smok
[Usunięty]

Wysłany: 18-08-2006, 18:59   

Czy widziałeś gdzieś schemat zastępczy elektryczny do modeli dekompresji. Brak takiego elementu czyni dyskusję o dekompreji mało kreatywną. Będąc na konferencji w Sopot 2005 PTMHiTN. Był prezentowany wykład prof z Ukrainy o przesyceniu tkanek przy drastycznym sprężaniu. Polacy prezentowali materiały o wykonywaniu pracy podczas dekompresji co skraca jej czas. Mając model zastępczy wiemy co można modyfikować, nie posiadając rozmowa jest opisem kolorów dla ślepego. Oczywiście jestem zwolennikem zmienności M bo wystarczy zauważyć że szybkość odsycania jest zależna od perfuzji więc w modelu zastępczym musi się pojawić mniejsze nasycenie tkanek dla wysokich szybkich ekspozycji hiperbarycznyh.

pozdrawiam rc
 
 
Wyświetl posty z ostatnich:   
Dodaj do: Wypowiedź dla Wykop  Wypowiedź dla Facebook  Wypowiedź dla Wyczaj.to  Wypowiedź dla Gwar  Wypowiedź dla Delicious  Wypowiedź dla Digg  Wypowiedź dla Furl  Wypowiedź dla Google  Wypowiedź dla Magnolia  Wypowiedź dla Reddit  Wypowiedź dla Simpy  Wypowiedź dla Slashdot  Wypowiedź dla Technorati  Wypowiedź dla YahooMyWeb
Odpowiedz do tematu
Nie możesz pisać nowych tematów
Nie możesz odpowiadać w tematach
Nie możesz zmieniać swoich postów
Nie możesz usuwać swoich postów
Nie możesz głosować w ankietach
Nie możesz załączać plików na tym forum
Nie możesz ściągać załączników na tym forum
Dodaj temat do Ulubionych
Wersja do druku

Skocz do:  

Powered by phpBB modified by Przemo © 2003 phpBB Group

Administrator FORUM-NURAS uprzejmie informuje, że nie ponosi odpowiedzialności i w żaden sposób nie ingeruje w treść wypowiedzi
umieszczanych przez użytkowników na Forum. Zastrzega sobie jedynie prawo do usuwania i edytowania, w ciągu 24
godzin, postów o treści reklamowej, sprzecznej z prawem, wzywających do nienawiści rasowej, wyznaniowej, etnicznej
czy tez propagujących przemoc oraz treści powszechnie uznanych za naganne moralnie, społecznie niewłaściwe i naruszających zasady regulaminu.
Przypominam, że osoby zamieszczające opinie, o których mowa powyżej, mogą ponieść za ich treść odpowiedzialność karną lub cywilną.

Serwis wykorzystuje pliki cookies, które są zapisywane na Twoim komputerze. Technologia ta jest wykorzystywana w celach funkcjonalnych, statystycznych i reklamowych.
Pozwala nam określać zachowania użytkowników na stronie, dostarczać im odpowiednie treści oraz reklamy, a także ułatwia korzystanie z serwisu, np. poprzez funkcję automatycznego logowania.
Korzystanie z serwisu Forum-Nuras przy włączonej obsłudze plików cookies jest przez nas traktowane, jako wyrażenie zgody na zapisywanie ich w pamięci urządzenia, z którego korzystasz.
Jeżeli się na to nie zgadzasz, możesz w każdej chwili zmienić ustawienia swojej przeglądarki.
Przeczytaj, jak wyłączyć pliki cookie i nie tylko
FORUM-NURAS topic RSS feed