You are here

ASIMILACE DAT

TÉMA: ASIMILACE DAT

Slovo úvodem

Jak známo, předpověď počasí je vlastně problém zadání počátečních podmínek. Závisí totiž v prvé řadě na co nejlepší znalosti aktuálního stavu atmosféry. Tak se dostáváme k pojmu analýza, který používáme v meteorologii každý den. Analýzu můžeme definovat jako pravidelnou prostorovou reprezentaci závislých meteorologických veličin v daném čase. V praxi se analýza používá hned trojmo: i) za účelem diagnostiky současného počasí; ii) pro předpověď počasí; iii) pro následnou verifikaci předešlých předpovědí. Abychom mohli „udělat analýzu“, potřebujeme vlastně také tři věci: především síť pozorování, dále diagnostickou metodu, která mimo jiné zahrnuje vnitřní vazby mezi jednotlivými proměnnými, a v neposlední řadě prognostickou složku, která nám poskytne předběžný odhad na základě minulých pozorování.

Z historie víme, že první meteorologické přístroje a více méně pravidelná pozorování se objevila v polovině 18. století, a že první subjektivní analýze, vlastně synoptické mapě, to trvalo ještě celé jedno století, než spatřila světlo světa. Od dob pana Le Verrier, otce první organizované pozorovací sítě a synoptické mapy, se rozvinuly metody objektivní analýzy a hlavně se podstatně změnila technologie pořizování dat.

V objektivní analýze, jejíž historii započal Richardsonův pokus v roce 1922, jsme se přes komplikované grafické metody, polynomiální přiblížení a metodu postupných korekcí nakonec dostali k použití teorie optimálního odhadu v meteorologii. První vlaštovkou byla v tomto směru Gandinova metoda optimální interpolace z 60. let dvacátého století, která se v rozvinutějších podobách používá ještě dnes. Teorie optimálního odhadu, s podmínkou platnosti určitých předpokladů, vede k řešení rovnice pro tzv. BLUE (Best Linear Unbiased Estimate) odhad. Takže jednoduše řečeno, zhruba od 60. let minulého století je problém analýzy popsán jednou „BLUE“ rovnicí.

Rovnice BLUE odhadu má dva hlavní členy. První popisuje vzdálenost optimálního odhadu od pozorování, druhý zase vzdálenost od tzv. předběžného odhadu, kterým je zpravidla krátká předpověď modelu z předchozí analýzy, který k řešení nové analýzy používáme. Jde vlastně o využití minulých pozorování, ovšem navíc zatížených chybou modelové předpovědi, byť krátké. Tato informace je však stále cenná pro přeurčení úlohy, vedoucí k přesnějšímu koncovému odhadu. Díky používání předběžného odhadu s pomocí předpovědního modelu se dostáváme k pojmu asimilace dat do modelu, který dnes používáme v numerické předpovědi počasí daleko častěji než pojem analýza, a také k pojmu asimilačního cyklu. Celý další velký díl výzkumu a vývoje v disciplíně asimilace dat je o tom, jak nejlépe rovnici BLUE odhadu řešit, zvláště s ohledem na to, že vektor řešení (vítr, tlak, teplota, vlhkost ve všech uzlových bodech modelové mřížky) bývá řádu asi 106 až 107.

S takovou obrovskou dimenzí úlohy si v praxi nejlépe poradily variační metody, které se prosadily v polovině 80. let minulého století. Variační počet dovoluje totiž elegantní a kompaktní formulaci řešení BLUE odhadu: je to minimum funkcionálu, který je ve tvaru kvadratické formy a který měří již výše zmíněnou vzdálenost od pozorování a předběžného odhadu. Pro praktické řešení variační úlohy je důležitá metoda sdružených (adjungovaných) operátorů, kterou zavedli Le Dimet & Talagrand (1986). Při hledání minima funkcionálu je totiž potřeba vypočítat jeho gradient podle kontrolního vektoru (klasicky je kontrolním vektorem vítr, teplota, tlak, vlhkost ve všech uzlových bodech), který má již výše zmíněnou délku třeba 107. Zatímco první člen gradientu vůči předběžnému odhadu se vlastně vypočítává v uzlových bodech mřížky a technicky nepředstavuje velký problém, druhý člen gradientu vůči pozorováním už je oříškem. Klasicky by se musel každý jednotlivý příspěvek k celkovému gradientu zvlášť vypočítávat pro každý prvek vektoru vůči každému pozorování, a to by bylo nesmírně náročné. Tento problém řeší velmi elegantně právě metoda sdruženého zobrazení, která vyčíslení gradientu vzdálenosti vůči pozorováním ošetřuje jednoduchým a výpočetně levným způsobem.

Jak pracuje metoda sdružených zobrazení, můžeme vysvětlit na následujícím příkladě. Datový operátor, který počítá z modelových proměnných (tlak, teplota, vlhkost) takovou radiometrickou informaci, kterou pozoruje senzor na družici, zobrazuje vlastně informaci z prostoru kontrolní proměnné modelu do prostoru pozorování. Zde se vypočte rozdíl modelového odhadu proti pozorované radiometrické hodnotě a s ním spojený příspěvek ke gradientu funkcionálu, jehož minimum hledáme. Sdružený datový operátor pak zobrazí tento gradient zpět do prostoru kontrolní proměnné, jinými slovy promítne jej na gradient v teplotě, vlhkosti, tlaku a tak dále. Použití datových operátorů a k nim sdružených zobrazení umožnilo spolu s variační formulací obrovský rozkvět asimilace nekonvenčních dat. V případě konvenčních dat, jako je třeba teplota měřená radiosondou, se datový operátor redukuje pouze na prostorovou interpolaci z uzlových bodů modelu do bodu měření. K této interpolaci také existuje sdružené zobrazení, které promítne gradient funkcionálu v teplotě z bodu měření zpět do uzlových bodů modelové mřížky.

Metoda sdruženého zobrazení se dá rozšířit i na samotný model. Tam je ale potřeba v první fázi odvodit tangentní lineární (TL) model, který je založen na principu lineárních perturbací. Za základ pro linearizaci slouží řešení (trajektorie) úplného nelineárního modelu. Pomocí TL modelu, který je vlastně lineárním zobrazením, můžeme popsat evoluci perturbací proměnných podél modelové trajektorie. Celkové řešení, které je součtem základní trajektorie a perturbací, porovnáváme s pozorováními v příslušných časových okamžicích. Zároveň vypočítáváme příspěvek ke gradientu funkcionálu, daný vzdáleností řešení k pozorováním. Následně sdružený (adjungovaný; značený také zkratkou AD) model, který je definován jako sdružené zobrazení k modelu TL, slouží ke zpětné projekci gradientu funkcionálu na počáteční stav. Tak se dostáváme k možnosti rozšířit analýzu podél časové osy a k metodě nazývané čtyřdimenzionální variační asimilace dat, ve zkratce 4DVAR. Časový interval, podél kterého porovnáváme pozorování s modelovým řešením a hledáme optimální odhad, nazýváme asimilačním oknem.

Variační formulace má další výhody, neboť je aditivní. Kvadratická forma může být rozšířena o další členy, například o měření vzdálenosti k řešením zbavených vysokofrekvenčního šumu. V jedné variační úloze je tak ošetřena i tzv. inicializace dat, odstraňující nevyvážené části analyzovaných přírůstků hmoty a větru. Na druhou stranu je variační úloha vysoce početně náročná, a proto je aplikována relativně pozdě vzhledem k znalosti teorie optimálního odhadu a potřebných nástrojů lineární algebry. I když byly vyvinuty velice účinné a rychle konvergující algoritmy pro nalezení minima funkcionálu, například metodou konjugovaného gradientu, je stále potřeba výkonného počítače s dostatkem centrální paměti. I tak praktická aplikace, maximálně využívající tzv. metodu přírůstků, je záležitostí důmyslného zvládnutí všech možných detailů.

Jak jsme se již zmínili, rozvoj zaznamenaly nejen metody analýzy, ale i technologie pořizování dat. Kromě klasických konvenčních měření máme k dispozici relativně obrovské množství radiometrických dat z družic. Přesto, že v asimilaci dat do modelů je využita relativně malá část, pomohla tato data poměrně významně k zlepšení prediktability atmosféry, zvláště na jižní polokouli. Stále častější jsou pokusy o asimilaci dat z radarů do modelů mezo- a konvekčního měřítka. Objem tzv. nekonvenčních dat, která by se dala asimilovat do předpovědních modelů, zcela určitě dále poroste.

O tom, kde se nacházíme dnes, jaký je dnešní stav disciplíny asimilace dat, a to nejenom v meteorologii, bylo sympozium, nedávno uspořádané v Praze.

 

ČTVRTÉ WMO MEZINÁRODNÍ SYMPOZIUM O ASIMILACI POZOROVÁNÍ V METEOROLOGII A OCEÁNOGRAFII, PRAHA 18.-22. DUBEN 2005

Již v pořadí čtvrté sympozium o asimilaci pozorování se konalo pod hlavičkou Světové meteorologické organizace v Praze v týdnu od 18. do 22. dubna. Navázalo tak na předchozí sympozia, jejichž historie začala v Clermont Ferrand (1990). Dá se říci, že impulzem pro vznik specializovaného sympozia byl právě vzestup variačních metod v období 1985 až 1990. Další dvě sympozia se pak pořádala v Tokyu (1995) a v Québecu (1999). Právě během třetího sympozia v kanadském Québecu byla předsedou programové komise předběžně navržena Praha pro pořádání dalšího setkání.

Zahájení čtvrtého mezinárodního sympozia v aule Karolina. Zleva: R. Brožková (ČHMÚ), E. Manaenkova (WMO), V Pačes (prezident AV ČR), I. Obrusník (ředitel ČHMÚ), Ph. Courtier (WWRP), T. Novotný (MZP), A. Frolov (Roshydromet, Rusko). Foto O. Šuvarinová.

Oficiální potvrzení ze sekretariátu WMO přišlo však až na konci října 2003, kdy byla jmenována mezinárodní organizační komise sympozia v čele s Alexandrem Frolovem (Roshydromet, Rusko). V této komisi byli dále čtyři spolupředsedové programové komise: Steve Cohn (NASA, USA), Andrew Lorenc (Met Office, Velká Británie), Neville Smith (BMRC, Austrálie), Chris Snyder (NCAR, USA); dále předsedkyně lokální organizační komise Radmila Brožková (ČHMÚ) a zástupci WMO: Elena Manaenkova (ředitelka programu AREP) a Philippe Courtier (předseda pilotní komise programu WWRP). Šlo o poměrně nezvyklý formát, hlavně co se týče čtyř spolupředsedů programové komise. Nicméně rozšířený centrální tým, fungující tak v pěti členech a vydatně podpořený Michalem Žákem (ČHMÚ, člen lokální organizační komise), se v praxi velmi dobře osvědčil.

Protože šlo o poměrně významné setkání s očekávanou účastí okolo 200 odborníků z celého světa, do organizace se zapojil nejenom Český hydrometeorologický ústav, ale také Matematicko-fyzikální fakulta Univerzity Karlovy a Ústav fyziky atmosféry Akademie věd České republiky. Nad sympoziem pak převzaly záštitu významné vědecké a politické osobnosti: prof. RNDr. Ivan Wilhelm, CSc., rektor Univerzity Karlovy; prof. RNDr. Helena Illnerová, DrSc., předchozí předsedkyně Akademie věd ČR a následně její nástupce prof. RNDr. Václav Pačes, DrSc.; prof. RNDr. Ivan Netuka, DrSc., děkan Matematicko-fyzikální fakulty UK; RNDr. Libor Ambrozek, ministr vlády ČR pro životní prostředí a ing. Ivan Obrusník, DrSc., ředitel ČHMÚ.

Jako místo konání bylo vybráno konferenční centrum Univerzity Karlovy v Karolinu, vybavené vynikajícím přednáškovým sálem a dalšími nezbytnými prostory. K hladkému průběhu sympozia přispěl profesionálně zdatný personál konferenčního centra a organizačního oddělení Univerzity Karlovy. Prostředí velké auly Karolina pak dodalo zahájení sympozia opravdu slavnostní a důstojnou atmosféru.

Se zajištěním lokální logistiky pomáhala organizátorům agentura Carolina. Jelikož bývá tradicí, že konference WMO jsou prosty registračního poplatku v zájmu co nejširší účasti vědců z rozvojových zemí, měli i v případě tohoto sympozia organizátoři dosti starostí s jeho finančním zabezpečením. To se nakonec podařilo zajistit díky příspěvkům od sponzorů, kterými byly:

  • NEC, High Performance Computing Europe, GMbH, Dusseldorf, Německo
  • Global Ocean Data Assimilation Experiment
  • EUMETSAT, Darmstadt, Německo
  • CNRM/Météo-France, Francie
  • NASA, USA
  • NCAR, Mesoscale and Microscale Meteorology, USA
  • Cray, Inc., USA
  • Instituto Nazionale di Geofisica e Vulcanologia, Itálie
  • Centre National d’Etudes Spatiales, Francie
  • Vaisala, Finsko
  • World Climate Research Program
  • THORPEX: A World Weather Research Program

O účast na sympoziu byl skutečně obrovský zájem, který překonal veškerá očekávání; zaregistrovalo se celkem 256 účastníků z 28 zemí světa s 259 příspěvky (orálními a postery). Ve srovnání s minulými sympozii tato čísla svědčí o tom, že obor asimilace dat prožívá velký rozvoj. Kromě velkých předpovědních center typu ECMWF (European Centre for Medium-Range Weather Forecasts) začínají i menší týmy v různých zemích světa používat moderní metody asimilace dat. Zde je vhodné ještě dodat, že předběžně bylo přihlášeno dokonce 305 příspěvků (a 350 účastníků) a redukce na konečných 259 příspěvků představovala nesnadnou úlohu pro programovou komisi. Tato komise měla celkem 11 členů; každý příspěvek byl vyhodnocen alespoň třemi členy nezávisle na sobě pro získání finální „známky“. Snahou samozřejmě bylo akceptovat co nejvíce příspěvků; organizátoři zavedli i možnost zapsat se na čekací seznam pro případ, kdy se někdo jiný ze sympozia odhlásí. Dá se říci, že nakonec byly vyloučeny jenom ty příspěvky, které svým tématem skutečně neměly nic společného s asimilací dat.

Tradiční formát sympozia o asimilaci dat je ten, že všechny přednášky probíhají v jednom plénu, nikoliv paralelně. Je to právě proto, že metodika asimilace dat byla nejvíce vypracována v meteorologii, odkud se poznatky přenášely do jiných příbuzných oborů, jako je právě oceánografie a teď v poslední době modelování chemických procesů v atmosféře. Asimilace dat tudíž těmito obory prolíná a účelem sympozia je setkání vědců a výměna zkušeností a metod z těchto jednotlivých disciplín; proto tedy není zvykem rozdělovat přednášky do paralelně probíhajících sekcí. Ovšem vzhledem k tomu, jak obrovský byl zájem o účast na pražském sympoziu, bude možná nutné opustit tradici a paralelní přednáškové bloky zavést. Fokus sympozia se tak asi do budoucna změní.

Podmínka jediného přednáškového pléna v praxi znamená, že během jednoho týdne lze vyslechnout pouze relativně malé množství přednášek, které ovšem musí být pečlivě vybrány, aby co nejlépe reprezentovaly danou sekci. V případě pražského sympozia bylo vytvořeno celkem deset tematických bloků (aspekty prostředí, tj. hlavně chemické transportní modely apod.; ansámblové metody; asimilace dat v modelech oceánů a moří; problematika délky tzv. asimilačního okna; numerická předpověď počasí; satelitní pozorování, asimilace v modelech atmosféry mezo- a konvekčního měřítka; metodika a statistika; reanalýza; diagnostika pozorování), uvedených třinácti pozvanými přednáškami. Tyto klíčové přehledové přednášky byly doplněny dalšími kratšími přednáškami, kterých bylo celkem čtyřicet čtyři. Značná část příspěvků, a to v počtu asi dvou set, byla tak prezentována formou posterů. Vzhledem k jejich značnému množství bylo nutné uzpůsobit program tak, aby účastníci měli dost času si postery prohlédnout.

Sympozium tak mělo skutečně světově špičkovou úroveň přednášek a splnilo jeden ze svých hlavních cílů: podat souhrnnou, přehlednou informaci o posledních pokrocích v asimilaci dat do modelů atmosféry a oceánů. Co se tedy dá říci o důležitých trendech za uplynulé období od předchozího sympozia v kanadském Québecu? Dá se říci, že ke značnému pokroku došlo ve všech aplikacích asimilace dat. Například v roce 1999 to bylo jenom Evropské centrum pro střednědobou předpověď počasí (ECMWF), které v provozní praxi mělo již od roku 1997 implementovanou čtyřdimenzionální variační asimilaci dat (4DVAR), zatímco letos je 4DVAR operativně používáno v dalších globálních předpovědních modelech Météo-France (2000), UK Met-Office (2004), v Japonsku (2005) a Kanadě (2005).

Motivace přechodu na čtyřdimenzionální asimilaci dat je zřejmá. Jednak dovoluje postihnout v BLUE algoritmu dynamický vývoj struktury chyb modelového odhadu stavu atmosféry, jednak umožňuje lépe využít pozorování z tzv. asynoptických termínů, tedy ta která jsou k dispozici ve vysokém časovém rozlišení. Typicky jde hlavně o nekonvenční satelitní data, dále také o bulletiny z dopravních letadel, v blízké budoucnosti o data z meteorologických radarů. Jak jsme se již zmínili v úvodu, řešení BLUE odhadu v prostoru i čase v dostatečném rozlišení je početně nesmírně náročné a bez velmi výkonných počítačů nemyslitelné. V současné době je délka asimilačního okna typicky 6 hodin pro globální modely; pro účely střednědobé globální předpovědi je asimilační okno modelu ECMWF dlouhé až 12 hodin. Navíc se variační úloha řeší pro nižší rozlišení, než ve kterém se počítá produkční předpověď. Jednak je to určitě proto, aby se ušetřil výpočetní čas, jednak ze zkušenosti se stejně ví, že spektrum kratších vln se v modelu rychle přizpůsobí delším planetárním vlnám a vlnám synoptického měřítka, a tak by se analyzovaná informace obsažená v krátkých vlnách stejně ztratila v případě, kdy by nebyla plně v konzistenci s vnitřní dynamikou a fyzikou modelu.

Jinou alternativou, jak řešit úlohu čtyřdimenzionální asimilace dat, je metoda Kalmánova filtru. Ta totiž umožňuje vzít korektně v úvahu vývoj chyby modelu, zatímco v klasickém algoritmu 4DVAR se na začátku asimilačního okna používá staticky vypočtený model kovariancí chyb předběžného odhadu. Řešení plné úlohy Kalmánova filtru je velmi drahé pro praktickou aplikaci a pokusy o redukci řádu úlohy zatím nevedly k úspěšným výsledkům. Na sympoziu byla ale zmíněna jiná možnost, a sice řešení úlohy Kalmánova filtru variační cestou. Je to oblast výzkumu, která se otevírá, a která možná přinese další zdokonalení asimilačních algoritmů.

Také jsme se již zmínili, že zavedení variačních metod při řešení BLUE odhadu dále umožnilo daleko efektivnější využití nekonvenčních dat. S tím, jak se rozvíjely algoritmy řešení optimálního odhadu spolu se stále lepším využíváním satelitních dat, tak se podařilo zlepšovat prediktabilitu atmosféry v rytmu zhruba jeden den za deset let. Jinými slovy to znamená, že ta samá úspěšnost předpovědi počasí na 5. den v roce 1985 je dnes prodloužena až na 7. předpovědní den! Ohromující je také zlepšení prediktability na jižní polokouli, a to zvláště díky satelitům, kdy se téměř setřel rozdíl vůči severní polokouli. Asimilace dat tedy hraje významnou roli ve zlepšování prediktability atmosféry.

Bylo by ale velmi nespravedlivé přisoudit tuto klíčovou úlohu pouze satelitním datům. Všechna data jsou totiž důležitá a právě na využívání dat ze všech dostupných kvalitních zdrojů stojí síla celého systému. Je také na místě zdůraznit, že satelitní data nemohou a ještě asi hodně dlouho nebudou moci nahradit data pořízená radiosondami. Ta mají totiž stále nejvyšší kvalitu a hlavně slouží k odstranění směrodatné odchylky satelitních dat, což je nutný předpoklad pro jejich asimilaci. Například je také zajímavé vědět, jaký mají přínos individuální typy dat pro prediktabilitu. Na severní polokouli mají radiosondy zhruba stejný potenciál prediktability jako družicová data ATOVS (Advanced TIROS Operational Vertical Sounder ze série družic TIROS), a to 6 až 24 hodin; je to stále více než data pořízená komerčními dopravními letadly (6 až 12 hodin).

Ke zvyšování prediktability přispívají i dokonalejší modely, jejichž kvalita je také klíčovým vstupem pro celkový úspěch. Kvalita modelu hraje roli jak v samotné produkční předpovědi, tak i v asimilačním cyklu prostřednictvím předběžného pole. Kovariance chyb modelu, stejně jako jeho směrodatná odchylka od skutečného stavu atmosféry je nedílnou součástí řešení BLUE odhadu. Pokroku lze dosáhnout pouze tehdy, zlepšují-li se obě součásti předpovědního systému, kterými jsou model včetně asimilace dat. Zde se samozřejmě přidává ještě další absolutně nutná podmínka: množství a kvalita pozorování atmosféry a oceánů.

Můžeme říci, a to na sympoziu bylo několikrát vysloveno, že dnes prožíváme určitou zlatou éru, co se týče právě satelitních pozorování. Trvalo přitom téměř dvacet let, než se například data z instrumentu TOVS začala skutečně efektivně v modelech využívat, než se vlastně odstranila všechna podstatná úskalí. V dnešní době jsme tedy schopni kapitalizovat na této dlouhodobé investici. Ovšem je určité nebezpečí, že zlatá éra nemusí trvat i nadále. Je to z toho důvodu, že se nové sondy vyvíjejí dnes příliš rychle, aniž by se někdo zabýval otázkou dostatečné časové stability dostupnosti určitého produktu dat. Může tak dojít k tomu, že během relativně krátké doby existence partikulárního typu sondy se asimilační systémy nenaučí daný typ dat optimálně využít, na rozdíl od dnešního příkladu dat TOVS.

Kromě rozvoje globálních systémů asimilace dat prožívá nevídaný vývoj asimilace dat do mezoměřítkových modelů atmosféry. Zde ve srovnání s globálními modely jsou algoritmy řešení poměrně rozdílné. Pokud se vůbec používá čtyř- dimenzionální metoda, tak potom s velmi krátkým asimilačním oknem. Je to především proto, že 4DVAR je velice drahý nástroj a je tak v ostrém protikladu k požadavku na co nejrychlejší poskytování krátkodobé mezoměřítkové prognózy. Jsou tu ale i jiné důvody pro to, aby asimilační okno bylo relativně krátké. V modelech mezoměřítka je totiž potřeba co nejvíce využít i během asimilace bohatý popis diabatických ireversibilních procesů, ke kterým se velmi obtížně hledá sdružené zobrazení. Pokud se i povede dané rovnice regularizovat a vhodné sdružené zobrazení najít, stejně většinou dochází k tvorbě nezanedbatelných systematických chyb, které zamezují úspěšné konvergenci variačního algoritmu. S tímto problémem bojují zejména globální modely synoptických měřítek, kde je zapojení diabatických procesů do variačního řešení BLUE odhadu poměrně minimální. Ale právě v mezoměřítkových modelech s velmi krátkým asimilačním oknem systematické chyby nemají čas dosáhnout významnějších hodnot; tím pádem zapojení diabatických procesů do mezoměřítkového 4DVAR může být daleko bohatší než v případě globálních modelů s delším asimilačním oknem.

Také se stále rozvíjejí postupy asimilace velmi lokálních dat, například z meteorologických radarů, která se v globálních modelech nevyužívají. Sympozium dále ukázalo, že se asimilační techniky začínají používat i pro chemické transportní modely, kde se otevírají možnosti dalších aplikací.

Další podrobnosti, týkající se sympozia, lze najít na webov ské stránce: www.chmi.cz/meteo/ok/dasvmpos/index.htm. na kterou je odkaz i z hlavní stránky ČHMÚ a kde je možné nalézt orální prezentace. ČHMÚ také vydal sborník krátkých abstraktů všech přijatých příspěvků, který je k dispozici v knihovně ústavu. Tento sborník byl účastníky sympozia velice oceněn, a to jak po stránce ediční, tak po stránce estetické a kvality vazby. Vybrané přednášky ze sympozia budou publikovány jako články ve zvláštním vydání Quarterly Journal of the Royal Meteorological Society.

 

ZAPOJENÍ ČHMÚ DO ASIMILACE DAT

Jak jsme se právě zmínili, problematika asimilace dat v modelech mezoměřítka je v některých aspektech podstatně rozdílná od případu globálních modelů. Právě na tomto poli se angažuje oddělení numerické předpovědi počasí Českého hydrometeorologického ústavu. Předpovědní model ALADIN, který se provozně počítá v rozlišení 9 km pro území střední Evropy, kombinuje ve své počáteční podmínce 4DVAR analýzu modelu ARPEGE (Météo-France) se svým vlastním předběžným odhadem informace jemného měřítka, které není globálním modelem již postiženo. Specifická verze této metody, které se v odborném žargonu říká blending, byla vyvinuta v Praze v rámci středoevropské spolupráce LACE (Limited Area modelling in Central Europe).

Asimilační cyklus blendingu modelu ALADIN je svázán s asimilačním cyklem ARPEGE, tj. pracuje se 4DVAR analýzami spočtenými v režimu tzv. dlouhého „cut-off“, kdy se čeká déle na pozorování pořizovaná v reálném čase (zejména družice, letadla). Pro implicitní blending spekter analýzy ARPEGE a předběžného odhadu ALADIN se využívá metoda digitálního filtru. Ve vlastní produkční předpovědi, která ale nevstupuje do asimilačního cyklu, se blending provádí s produkční analýzou ARPEGE (spočtenou při kratším cut-off čase pro sběr pozorování) a předběžným odhadem modelu ALADIN z asimilačního cyklu. Aplikace blendingu zlepšuje jak kvalitu počátečních podmínek, tak následné předpovědi oproti metodě prosté dynamické adaptace. V analýzách modelu ALADIN se konzistentně zachovávají struktury mezoměřítka, jakými jsou například mořské a horské brízy, organizované konvekčními pásy a podobně.

Dále se na pražském pracovišti provozuje aplikace nazývaná DiagPack, která je vhodná pro okamžitou předpověď počasí (nowcasting); jde o hodinové objektivní analýzy, využívající husté sítě přízemních pozorování. Tyto analýzy se počítají metodou optimální interpolace. Její statistický model kovariancí chyb modelu je přitom vyladěn tak, aby analýza nebyla optimální kombinací informace z pozorování a předběžného pole, ale aby se co nejvíce přiblížila pozorováním. Jde tedy o analýzy, které slouží výhradně jako diagnostický nástroj aktuálního stavu počasí; nejsou totiž vhodné jako počáteční podmínka pro model. Je to právě kvůli výše zmíněnému přeladění statistického modelu. Analýza je pak sice blíže pozorováním, ale dále od pomalé variety modelu; tím pádem by se nevyvážená část přírůstků analýzy k předběžnému odhadu projevila v následné integraci jako šum a ne jako signál.

Ve výzkumu je tým ČHMÚ zapojen do práce na určení matice kovariancí statistických chyb předpovědního modelu na omezené oblasti tak, aby se mohla vybudovat mezoměřítková asimilační metoda navazující na blending, ale aby se přitom nepoškodilo dlouhovlnné spektrum využívající výsledky 4DVAR analýzy ARPEGE. Pro tento účel byl vypočten statistický model kovariancí chyb modelu ALADIN, který eliminuje vliv bočních okrajových podmínek. Na krok blendingu by tak navázala mezoměřítková analýza typu 3DVAR využívající těchto statistik Pro účely mezoměřítkové analýzy je ale vhodné využít pokud možno hustá lokální pozorování, která nebyla již zahrnuta v globální 4DVAR analýze. Proto se v tomto roce, který byl možná optimisticky oddělením numerické předpovědi počasí vyhlášen rokem asimilace dat, začalo pracovat na přípravě asimilace satelitních dat. Konkrétně jde o data ze senzoru SEVIRI (Spinning Enhanced Visible and Infra-Red Imager) družice METEOSAT druhé generace (MSG), která mají výhodu relativně hustého prostorového a časového rozlišení. Výhledově se také počítá s asimilací radarových dat; tady jde ale ještě o výzkumný běh na dlouhou trať, než se bude dařit skutečně optimálně využít informaci obsaženou v těchto pozorováních.

Kromě asimilace dat v mezoměřítku se tým ČHMÚ podílí i na využití metod asimilace 4DVAR pro účely synoptické předpovědi. Jde o techniku, která umožňuje asimilovat do modelu pomocí 4DVAR algoritmu tzv. opravu, kterou může vygenerovat synoptik na základě čerstvých pozorování v případě, kdy se řešení předpovědního modelu začíná od nich odklánět. Jde hlavně o porovnání struktur synoptického měřítka, zejména anomálií potenciální vorticity na horní hranici mezní vrstvy a v hladině tropopauzy. Metodou inverze potenciální vorticity lze potom spočítat „opravené“ pole teploty, větru a tlaku. Tuto metodu lze tedy používat pouze v synoptickém měřítku, nicméně má potenciál zlepšit předpověď významného počasí, typicky bouřlivou cyklogenezi a podobně.

Český hydrometeorologický ústav také navazuje výzkumnou spolupráci v oboru asimilace dat s dalšími národními pracovišti. Jde zejména o Ústav informatiky AV ČR, který se zabývá asimilací dat znečištění atmosféry a jejich potenciálem pro možnost ředpovědi kvality ovzduší.

Asimilace dat je disciplína, která ve srovnání s ostatními disciplínami numerické předpovědi počasí má svoje specifické nároky jednak na výpočetní techniku, jednak na předběžné zpracování zejména nekonvečních dat a sestavení vhodné databáze pozorování. Tyto technické požadavky, zvláště týkající se zpracování dat a vhodného databázového řešení, představují nemalý logistický problém pro menší meteorologické služby. Doufejme proto, že nový ambiciózní databázový systém SDNES, budovaný v ČHMÚ, bude odpovídat příštím provozním požadavkům asimilace dat, podaří-li se v tomto směru udělat pokrok. Jako první asimilační úloha, která se připravuje pro provoz modelu ALADIN v ČHMÚ, je analýza proměnných modelu zemského povrchu (půdní teploty a vlhkost, sníh, atd.) metodou optimální interpolace. Počáteční stav výškových polí bude i nadále ošetřen pomocí spektrálního blendingu. Před plánovaným spuštěním paralelního testu zbývá ještě dořešit některé algoritmické detaily napojení této asimilace na ostatní kroky přípravy počáteční podmínky. Neboť, jak s oblibou říkají specialisté na asimilaci dat, ďábel je schován v maličkostech.

Radmila Brožková, MZ 2005/3, ročník 58, str. 85-89