Blog

Web 2.0

Polacy nie potrafią tworzyć hype’u. Świat (czytaj: amerykańska blogosfera) huczy od newsów i artykułów o tym, czym Web 2.0 jest, a czym nie jest. Nastrój rewolucyjny podsyca konferencja organizowana przez koncern Tima O’Reilly’ego, pod hasłem, jakżeby inaczej, Web 2.0. Tymczasem próba znalezienia czegoś na ten temat w rodzimej części WWW kończy się na paru szczątkowych wzmiankach o wspomnianej konferencji i niczym więcej.

To, że w sieci dzieje się coś nowego, widać już od jakiegoś czasu. Skończyła się już era flashowych intr, wymierają strony-prezentacje, tworzenie układów tabelkowych jest obciachem, a w modzie są skróty i akronimy w rodzaju CSS, RSS, SEO czy Ajax. Standardy sieciowe wreszcie stają się standardem de facto, a nie tylko pobożnym życzeniem garstki fanatyków.

Przykład? Pamiętam, jak wieki temu — gdzieś w 2001 roku — czytałem na śp. MocnymWebie wywiad z Toddem Purgasonem, szefem narzucającego trendy studia Juxt Interactive. Strona firmy była wówczas świetnie zrobionym filmem flashowym. Parę tygodni temu zajrzałem tam ponownie i znalazłem stronę napisaną w semantycznym XHTML-u, bez Flasha, z formatowaniem opartym o CSS. Gwoli uczciwości dodam, że widnieje na niej napis 2004 temp site. Jednak skoro jest w sieci od roku, a w portfolio można znaleźć więcej produkcji wykonanych w ten sposób, więc widać, że w studiu wiele się zmieniło w sposobie myślenia o stronach.

Jaki ma to związek z Web 2.0? Nowoczesna sieć to między innymi technologia. Swoją drogą, paradoksem jest, że standardy W3C, wymyślone jeszcze pod koniec lat 90., teraz okazały się najbardziej modną technologią. Wyprzedziły znacznie bardziej skomplikowane wynalazki w rodzaju ActiveX, apletów czy Flasha, choć te ostatnie jeszcze niedawno wydawały się być przyszłością WWW. Web 2.0 to triumf tradycyjnego hipertekstu, pogardzanego do niedawna JavaScriptu, formatowania w CSS-ie oraz bardzo prostego i nieprzekombinowanego XML-a, np. w postaci kanałów RSS.

Właśnie, przekombinowanie. Myślę, że kolejnym słowem-kluczem w wypadku Web 2.0 jest prostota. Nie należy jej mylić z prymitywizmem: chodzi nie o trywialną wewnętrzną budowę, ale łatwość użytkowania. Sukces odniosły technologie proste w użyciu zarówno dla sieciowych konsumentów, jak i programistów. Na przykład zamiast rozbudowanego protokołu SOAP coraz większą popularność zdobywa Rest, czyli odpytywanie zdalnego serwisu wyłącznie za pomocą odpowiednio spreparowanego adresu URL. Aplety, dające możliwość tworzenia rozbudowanych aplikacji uruchamianych w przeglądarce, przegrały z lekkimi interfejsami opartymi o zwykły HTML, wspomagany Ajaksem. Wreszcie pogardzane języki skryptowe działające po stronie serwera – Perl, PHP, Python i Ruby – wzięły sieć szturmem. Mocno promowana Java i .NET oczywiście mają się dobrze, ale głównie w korporacjach, gdzie większym problem jest wydawanie pieniędzy niż ich oszczędzanie.

Tej prostoty nie należy mylić z prymitywizmem. Dobrze pasuje tu cytat, który znalazłem dziś na stronie Joela Spolsky’ego:

Google wykorzystuje filtry bayesowskie tak samo, jak Microsoft używa warunku if.

Były programista Microsoftu (tłumaczenie moje)

Ostatecznie zwycięzcą jest użytkownik, który wcale nie musi wiedzieć, czym jest filtr Bayesa. Ważne, że aplikacja działa zgodnie z jego oczekiwaniami. Wyrafinowana technologia w działaniu okazuje się bardziej “swojska” niż jej toporny odpowiednik.

Zmiana podejścia widoczna jest też w sposobie edytowania treści. Coraz więcej przykładów na to, że zamiast CMS-ów z drobiazgowo kontrolowanym workflowem, użytkownicy wolą zanarchizowane wiki. Przykład Confluence’a dowodzi, że właściwe opakowanie pozwala sprzedać tę ideę również w środowisku “enterprise”.

Zaangażowanie użytkowników w tworzeniu treści to kolejne hasło nowej pajęczyny. Okazało się, że zamiast psuć, ludzie wolą tworzyć. Nawet jeśli przyczyną tego bywa jedynie chęć zaistnienia jako recenzent filmów nakręconych w Iranie. Nikogo też już nie dziwi udostępnienianie przez wielkie serwisy API do swoich usług lub też, jak to ktoś określił, hackability tychże usług. Tym razem słowo to ma jak najbardziej pozytywny wydzwięk i oznacza, że aplikacja daje się twórczo rozwijać. Zaznaczam to, ponieważ słowo to użyte np. w kontekście Windows może wywoływać zgoła odmienne skojarzenia.

Na szczęście “nowa” sieć jest także triumfem otwartych standardów. Ostatecznie nawet Microsoft nie zdołał całkowicie zdominować rynku za pomocą specyficznych dla swojej przeglądarki rozszerzeń i technik, np. ActiveX. Wyjątkiem jest Flash, który mimo wszystko ma się dobrze. Konkurencyjne rozwiązania W3C: SMIL i SVG, nie są w stanie dorównać mu jakością narzędzi dla autorów oraz penetracją rynku.

Technologia to tylko jedna, bardziej oczywista strona medalu. Jak to zwykle bywa, bardziej złożonym tematem są pieniądze. Jeśli ktoś jeszcze nie zaczął być podejrzliwy wobec całej tej rewolucji, to chyba najpóźniej w tym momencie powinien nabrać pierwszych wątpliwości. No bo jak tu nie być podejrzliwym, jeśli o tzw. długim ogonie piszą już nawet tygodniki w odległym Lechistanie? Długi ogon ma być jedną z podstaw Nowej Ekonomii 2.0. Patrząc na szybujące w górę ceny akcji Google, nie mogę odgonić się od skojarzeń z Nową Ekonomią 1.0, która, przypomnijmy, wybuchła z wielkim hukiem w 2001 roku.

Znowu wielcy kupują startupy w rodzaju Bloglines, mające docelowo generować wielkie zyski, chociaż chyba jeszcze nie wszyscy dobrze wiedzą, w jaki sposób. Dzisiaj już jest oczywiste, że na sieci można zarobić. Ale czy można zbudować trwały model biznesowy oparty wyłącznie na funkcjonowaniu w sieci? Są przykłady, że owszem, ale patrząc na entuzjastyczne relacje ludzi uczestniczących w konferencji O’Reilly’ego, zastanawiam się, czy długi ogon nie okaże się za krótki. Bo wbrew okrzykom, ostatecznym zwycięzcą okazują się wielcy, tacy jak Google czy Amazon. Te firmy nie pozostawiają żadnych wątpliwości, że zwycięzca zgarnia wszystko.

Jeden z ojców obecnego zamieszania, Paul Graham, nieprzypadkowo radzi młodym hakerom, by sprzedawali swoje startupy, gdy tylko nabiorą odpowiedniej ceny. Innymi słowy: bierz, ile zmieścisz w kieszeni, i uciekaj. Nie brzmi to szczególnie budująco.

Czy czeka nas powtórka z rzezi dotcomów? Mimo wszystko mam nadzieję, że nie. W końcu nowa sieć opiera się, moim zdaniem, na dużo bardziej przyjaznych podstawach niż reklamowe pop-upy, symbol pierwszego boomu.

Prorocy nowego porządku nie mają natomiast większych wątpliwości co do jednego: w nowych warunkach Microsoft musi zginąć. Ciekawe, który to już raz.

Comments

  1. Ciekawy temat. Ważne jest też, kto stworzył obie sieci.
    Sieć 1.0 była dziełem napalonych inwestorów, którzy zapominali o potrzebach rynku.
    Sieć 2.0 powstaje dzięki świadomym użytkownikom, którym nie są potrzebni wielcy inwestorzy.

    No i problemem jest to, że często wynalazki Sieci 2.0 są niskobudżetowe (Wiki vs drogie CMSy i groupware), dają spory zysk przy niewielkich nakładach. Trudno będzie inwestorom znaleźć sposób na zarabianie na nich większych pieniedzy. Bo jeśłi np. wykupione przez nie wiem nawet kogo Bloglines stanie się częściowo płatne, to od razu powstaną dwie darmowe alternatywy.

    Wielcy gracze kupują więc zaufanie użytkowników, a ewentualne zyski z nich – bardzo na kredyt.

    I tu leży największe zagrożenie Sieci nr. 2. Mniejsze inicjatywy będą potrafiły się utrzymać, choćby ze składek użytkowników (przykładem kurnik.pl czy nawet wikipedia). Te, które kupiono za duże pieniądze, mogą nie znależć sposobu na zwrot z takiej inwestycji – i znowu posypią się fale bankructw.

  2. Jeszcze coś.

    Sieć 2.0 w Polsce będzie długo raczkowała. Będziemy mieli rozrzut między aktywnością społeczności, w której Polacy są nadspodziewanie dobrzy (2? 3? miejsce w liczbie blogów?), a polskimi firmami, których świadomością rządzą agencje interaktywne. Tym nadal się oplaca przekonwywanie klientów, że internet to tylko kolejne medium reklamowe.

  3. Myślę, że mówiąc o Web 2.0 powinno się też zwrócić uwagę, że są to zazwyczaj:
    – aplikacje oparte na danych,
    – systemy które działają tym lepiej im więcej mają danych i użytkowników,
    – systemy budujące najczęściej społeczność,

    Zgadzam się, że to świetny kierunek rozwoju i uważam, że przyniesie do Sieci to co utraciła podczas pierwszego boomu. Chodzi mi o realny wpływ użytkowników na Sieć oraz decentralizację.

    Być może Sieć przestanie być postrzegana też jako kolejne po TV medium reklamowe. Faktem jest, że dziś na palcach jednej ręki policzyć można agencje interaktywne wykorzystujące potencjał Sieci.

  4. O, juz drugi raz widze na polskim blogu haslo “Web 2.0”, wiec cos sie dzieje;-)

    Ja jednak brakiem hypu w Polsce w tym temacie nie przejmowalbym sie tak bardzo jak brakiem jakichkolwiek widokow na to, zeby Web 2.0 zawital na polskie strony o masowym charakterze, np. do portali. Na zachodzie Yahoo bije sie z Google, kto bedzie bardziej otwarty i milszy dla uzytkownikow, podczas gdy w Polsce portale ciagle przescigaja sie w tym, kto bedzie sprzedawal bardziej natretne reklamy i mial wiecej odslon (widzieliscie gdzies jeszcze statystyki liczby odslon dla Yahoo czy Google? O takich rzeczach pisalo sie tam w 2000 roku, a u nas ciagle jest uznawane jak wyznacznik popularnosci).

    Dobrze, ze chociaz o zwyklych RSS-ach slyszeli w gazeta.pl, ale szkoda, ze to jest traktowane jako sposob na generowanie wiekszej liczby odslon stron, bo udostepniane sa tylko skroty wiadomosci.

    Marek

  5. Cieszę sie, że jednak coraz wiecej mówi się o Nowych Technologiach a w zasadzie standardach bo technologie nie są znowu jakieś bardzo młode. TO ciekawe, ale gdyby nie opór webmasterów to dzisiaj połowa stron była by lżejsza!.
    Niesamowite, że po raz pierwszy postęp nie wiąże się z kopmlikowaniem a UPROSZCZANIEM tego co istnieje.
    Bedzie dobrze…

  6. Cieszy że postało już tak dużo polskich web 2.0: wykop.pl, gwar.pl, czy ostatnio powstały SecondRenesans.com …

Comments are now closed