Vyšlo na Lupě, 26.11.2007
Vytištěno z adresy: http://www.earchiv.cz/b07/b1126001.php3

Stalo se: hrozí Internetu exa-záplavy?

Minulý týden se objevila studie, podle které Internetu hrozí „exa-záplavy“ dat, a již počátkem roku 2010 by  mohl „začít nestíhat“. Jde o skutečnou hrozbu, nebo jen o další dílčí atak v boji o síťovou neutralitu, tentokráte přicházející ze strany jejích odpůrců? A co u nás? Jsou limity a FUP jen umělým problémem, který běžné zákazníky nezajímá?

Minulý týden nepřinesl pouze konferenci Czech Internet Forum, a vyhlášení výsledků ankety Křišťálová Lupa. Pozornost médií zaujala například také čerstvě zveřejněná studie společnosti Nemertes Research, týkající se budoucnosti Internetu z pohledu dostatku jeho přenosových kapacit. V ČR byly výsledky této studie nejčastěji interpretovány v tom smyslu, že kolem roku 2010 se Internet dostane na hranici svých možností, resp. mu  „dojde dech“.  Viz například:

To na Slovensku si média přisadila podstatně více, když na základě výsledků studie začala věštit dokonce kolaps Internetu jako takového:

A to i přesto, že v samotné studii se explicitně zdůrazňuje, že nevynaložení potřebných investic nepovede k žádnému kolapsu Internetu, ale jen k jeho zpomalení, resp. ke kapacitním problémům. A právě o tom totiž celá studie je.

Snaží se odhadnout vývoj přenosových kapacit Internetu, a porovnává jej s očekávanými požadavky uživatelů na přenos dat. A dochází k závěru, že bez zvýšených investic by v horizontu tří až pěti let by přenosová kapacita Internetu přestala postačovat nárokům jeho uživatelů. Problém by přitom byl hlavně v přístupových sítích, a nikoli v sítích páteřních. Ukazuje to ostatně i následující graf ze studie, s předpokládaným vývojem poptávky (žlutá křivka), a vývojem přenosových a přepojovacích kapacit (modře je právě přenosová kapacita přístupových sítí).

Studie dokonce vyčísluje investice, které by bylo zapotřebí vynaložit, aby k takovéto disproporci nedošlo. Má jít o 42 až 55 miliard USD, a to jen v Severní Americe. Již dnes se pochopitelně s určitými investicemi počítá, ale podle výsledků studie by k odstranění hrozícího problému bylo třeba investovat více, o 60 až 70% (než v Severní Americe již  uvedených 42 až 55 miliard).

A tak se vlastně vše dostává ke klasické otázce: zda a kdo to všechno zaplatí. A také k tomu, co se stane, když to nikdo včas nezaplatí: dojde ke zpomalení a omezení inovace. Nové přelomové služby (jakými byly  Google, YouTube, Amazon apod.) možná vůbec nevzniknou. A to ne proto, že by o ně nebyl zájem a poptávka – ale proto, že tuto poptávku nebude možné naplnit.

Spotřeba na druhý pohled

Pro lepší pochopení studie je vhodné se alespoň orientačně podívat i na její metodiku. Ta říká, že autoři neodhadovali vývoj poptávky na základě odhadovaného vývoje aplikací (kde se zásadní inovace opravdu těžko předvídají), či na základě vývoje celkových objemů přenášených dat.

Místo toho autoři zvolili přístup, který sami označili jako „inovačně centrický“, a přirovnali dokonce k Moorovu zákonu pro internetové služby. Jeho podstata je v tom, že sledují, jak se vyvíjí schopnosti a požadavky aplikací a koncových zařízení, která uživatelé používají. Včetně vytvoření určitého typického profilu uživatele Internetu, který říká, co a jak uživatel používá, jak dlouho atd.

Pravdou je, že při tomto pohledu „spotřeba“ nutně roste, a to již dnes exponenciálně. Následující graf pak ukazuje, jak bude takováto spotřeba v dalších letech eskalovat (byť  jen pro oblast Severní Ameriky). Například pro rok 2012 zde vychází, že jeden uživatel by mohl zkonzumovat či naopak vygenerovat za jediný den data v objemu 26 GB!! To by odpovídalo například sedmi hodinám interaktivního videa v HD.

Autoři sami uznávají, že 26 Gigabyte za den je opravdu hodně, a že toto číslo nemá být interpretováno jako jejich odhad toho, jak velké objemy budou uživatelé skutečně generovat. Prý je třeba tomu rozumět ve smyslu toho, jak velkou zátěž by jednotliví uživatelé mohli generovat (vzhledem ke schopnostem jimi používaných zařízení, požadavkům jimi používaných aplikací, podle očekávané doby práce s Internetem atd.).

Řečeno hodně zjednodušeně to zřejmě odpovídá tomu, že uživatel dokáže využít všechny možnosti svých zařízení a aplikací „nadoraz“ (na jejich maximum). Že stahuje a zpracovává obsah maximální možnou rychlostí  - ale nikoli trvale, 24 hodin denně a 7 dnů v týdnu, ale jen po určitou dobu, která odpovídá jeho pracovnímu profilu (a je omezena i  biologickými faktory).

Současně to předpokládá, že existuje obsah, který dokáže vyplnit potřebu takovéhoto zákazníka (aby s tak velkými objemy dat potřeboval a chtěl pracovat), a také že jeho přípojka bude natolik dimenzovaná, že nebude úzkým místem a nebude jej omezovat v tom, co a jak chce na Internetu dělat.

U nás bychom asi řekli, že jde spíše o potenciální spotřebu „stahovačů“, než průměrných uživatelů Internetu. Byť jde o stahovače, kteří nestahují „jen tak“ či pro nikoho cizího, ale jen pro sebe, a s tím že stažený obsah skutečně využijí. Jenže to už vlastně nejsou žádní stahovači ….

Hrozí zpomalení, nikoli kolaps

Vedle exponenciálního růstu poptávky si popisovaná studie samozřejmě všímá i dostupné přenosové kapacity, a to na různých úrovních: jak na úrovni páteřních sítí, tak i na úrovni sítí přístupových. Zde přitom očekává víceméně lineární nárůst. A tak je jen otázkou času, kdy exponenciálně rostoucí spotřeba překročí lineárně rostoucí disponibilní kapacitu v přístupových sítích.

Podle prvního dnešního grafu (viz výše) by k tomu mělo dojít někdy v roce 2011.  Studie však hrozí problémy se zpomalováním (nikoli kolapsem) již počátkem roku 2010. Případně již počátkem roku 2009. Proč?

Autoři si správně všímají toho, že přenosová kapacita se nevyužívá „nadoraz“. V prostředích, která mají sdílený charakter a kde více uživatelů nějak soutěží o získání části kapacity, je vhodné udržovat její využití někde na úrovni 15 procent, nejvýše 30 procent. Pouze tam, kde je aplikována nějaká forma řízení provozu („traffic engineering“), lze jít na vyšší míru využití.

Pokud je naopak tato míra překročena, uživatelé začínají pociťovat určitá omezení – v míře tím větší, čím větší je celkový součet všech požadavků, a  čím více jsou překročeny uvedené hranice. Autoři proto připravili svůj odhad i pro úrovně 15% a 30% disponibilní kapacity v přístupových sítích. A zde jim vyšlo, že by měla být překročena již někdy počátkem roku 2009, resp. 2010, viz následující graf.

Jeden z hlavních závěrů studie, že již v roce 2010 hrozí určité problémy, je tedy chápat právě v tomto smyslu: odhad poptávky  (ve výše uvedeném smyslu) překročí 30% disponibilní kapacity v přístupových sítích. A to samozřejmě nebude znamenat žádný kolaps Internetu, jak to interpretovali na Slovensku.  Ale přineslo by to různé „zadrhávání přenosů“, které by uživatelé jistě pocítili jako zhoršení  jejich Internetu. Nakolik by jim to bránilo v používání konkrétních služeb – zda zcela či jen částečně - je určitě zajímavou otázkou, na kterou ale studie již neodpovídá.

Studie se ale zajímá i o důsledky očekávané disproporce mezi přenosovou kapacitou a poptávkou uživatelů. Dochází k závěru, že nejvíce se to projeví na zpomalení  inovací a vzniku nových inovativních služeb a aplikací. Ne že by poptávka po nich nebyla – ale vzhledem k nedostatečné přenosové kapacitě ji prý nebude možné uspokojit.

Hrozí nám Exazáplavy?

Celá studie tedy varuje před určitým potenciálním problémem, který by se mohl projevit již počátkem roku 2010. Současně vyčísluje náklady, které by bylo zapotřebí vynaložit k odvrácení tohoto problému: jen pro oblast Severní Ameriky má jít o 42 až 55 miliard USD, a globálně o 137 miliard USD.  A to má být o 60 až 70% více, než kolik plánují vynaložit stávající vlastníci přenosové infrastruktury. 

Takže studie svým způsobem říká: „musíte investovat více. Nebo nastanou problémy“.

Pro příčinu těchto problémů, spočívající ve výrazně rostoucí „spotřebě přenosu“, se mezitím našlo i nové jméno. Hovoří se o nové „exa-záplavě“ (v angličtině: exaflood) - což je termín, který poprvé objevil letos v lednu, v jednom zajímavém článku ve Wall Street Journal. Jmenuje se (jak jinak než:  The coming exaflood),  a pojednává víceméně o tom samém co nynější studie, byť bez pokusu o konkrétní kvantifikaci: o tom, že požadavky na potřebu přenosu porostou exponenciálně, a bude třeba začít výrazněji investovat do přístupových sítí, aby novodobou záplavu dat unesla (či spíše: bez problémů přenesla).

No a právě pro zdůraznění velikosti této novodobé záplavy byl použit termín „exa-záplava“ (exaflood). Přitom prefixy jako Mega, Giga,  Tera či Peta už pro zdůraznění velikosti nepostačovaly, a tak byla použita jednotka  ještě vyšší: Exa. Ta odpovídá 260, a 1 Exabyte je tedy 1,152,921,504,606,846,976 bytů. To by údajně mělo být pětkrát více, než kolik obnáší veškerý dosud existující  psaný obsah. Ale s obrazem už to určitě bude více. Natož pak s obrazem ve vysokém rozlišení …..

Cui bono?

Ačkoli  samotná studie nikde nezmiňuje otázku tzv. síťové neutrality, svým zaměřením s ní nutně souvisí. A svým výsledkem dosti jednoznačně nahrává jedné straně ve sporu o tuto síťovou neutralitu, konkrétně odpůrcům této neutrality  Takže asi bylo předem jasné, že ze strany zastánců síťové neutrality se dočká velké kritiky. A to se také dočkala.

Nejprve si ale připomeňme, o čem vlastně v rámci síťové neutrality jde. Formálně o to, zda se přenosová infrastruktura má chovat vůči všem přenášeným datům stejně (a tedy neutrálně), nebo zda má některým druhům přenos dávat přednost před jinými. Fakticky se ale tato otázka převádí na otázku toho, kdo má nést hlavní břímě investic do přenosové infrastruktury: mají to být jen telekomunikační operátoři (jak požadují zastánci neutrality), nebo mají ze svých zisků přispívat i ti, kteří tuto infrastrukturu využívají a vydělávají na ní? Tedy subjekty jako je Google, Yahoo apod., které by si podle představ odpůrců síťové neutrality měly připlácet na přednostní transport jimi generovaných dat?

Argument, že nastanou problémy, pokud se nezvýší objem investic, celkem jednoznačně nahrává do karet odpůrcům síťové neutrality. A tak druhá strana ihned přispěchala s protiofenzívou: společnost Nemertes Research, je prý financována aliancí s názvem „Internet Liberty Alliance“, která již delší dobu hrozí nebezpečím „exazáplavy“ a mobilizuje proti tomuto nebezpečí. Současně je prý celá tato aliance jakýmsi „trojským koněm“ v rukou amerického AT &T (v originále: „Astroturf“, což je nezávisle se tvářící organizace, která ve skutečnosti pracuje pro někoho jiného, kdo je naopak výrazně angažován), a celá zpráva je jen dalším příspěvkem do celého boje proti tzv. síťové neutralitě.

No, ono asi nic nebude černobílé. Každá strana ve sporu o síťovou neutralitu má řadu pádných a logických argumentů, kterým ale lze stejně tak logicky a pádně stavět protiargumenty. Osobně mne to jen utvrzuje v tom, že řešením není vítězství jedné strany nad druhou, ale nějaký kompromis, který by otevřel dostatečný prostor pro působení a podnikání obou stran,  a tím dostatečně motivoval obě dvě.

A co u nás?

Zatímco ve vyspělém zahraničí myslí na budoucnost a hádají se o síťovou neutralitu, i v obavě o dostatečný prostor pro inovace, u nás je situace poněkud prozaičtější. My se stále ještě potýkáme s existencí umělých (administrativních omezení) „spotřeby“, v podobě objemových limitů a pravidel Fair Use Policy. A na konferenci Czech Internet Forum, konané minulý týden, se dokonce objevily názory, že limity a FUP jsou jen umělou kauzou, která běžné zákazníky vůbec nezajímá, a je prý přetřásána jen v odborných kruzích (na Lupě).

No, co k tomu dodat? Snad jen otázku: proč potom existují jinak identické služby, lišící se jen nastavením objemových limitů, resp. jejich úplným odstraněním? Jako třeba služby O2 Internet ADSL a O2 Internet ADSL Extreme od TO2? Či služba Dataklik od stejného poskytovatele, skrze kterou si zákazník může přikoupit další objem dat nad svůj limit? Pokud by objemové limity zákazníky skutečně nezajímaly, proč by takovéto služby vůbec existovaly?