drugą połowę śmiało można zwać epoką komputerów. Wydawałoby się więc, że
technologia informatyczna powinna już osiągnąć dojrzałość. Tymczasem niezawodność
oprogramowania w dalszym ciągu pozostawia wiele do życzenia. Och, znam argumenty
przemawiające za niemożnością stworzenia doskonale stabilnego programu: mnogość
konfiguracji sprzętowych, aplikacji i sterowników w połączeniu z błędami
kompilatorów uniemożliwiają sprawdzenie wszystkich słabych punktów.
Jednak
mniej więcej po roku, dwóch każdy program staje się stabilny – dzięki instalowaniu
kolejnych poprawek. I dzięki setkom, tysiącom anonimowych użytkowników, którzy
kosztem własnego czasu, a nierzadko cennych danych, wykrywają i zgłaszają usterki.
Czyli – zajmuje to sporo czasu, ale jest możliwe.
Czy aż tak
trudno popracować trochę dłużej i zaoferować przyszłym użytkownikom aplikację bez
błędów? Zwolennicy spiskowej teorii dziejów odpowiedzieliby, że firmom software’owym
nie opłaca się wypuszczać na rynek doskonałych produktów. Twierdzą oni, że każda
nowa wersja, która usuwa stare problemy, to przecież dodatkowy pieniądz do kieszeni
producenta. Czy bez upgrade’ów rynek informatyczny rozwijałby się tak dynamicznie?
Według niestrudzonych tropicieli infointryg firma, która opracowałaby program
bezbłędny i – nie daj Boże! – szybki, ergonomiczny oraz wyposażony we wszelkie
potrzebne funkcje, mogłaby go sprzedać tylko raz. A kolejne wersje zapluskwionych
produktów z powodzeniem są sprzedawane co rok.
Prawda o
powszechności niedoskonałych programów jest jednak prostsza. Na rynku nie ma miejsca
dla towarów, na które brak popytu. A wygląda na to, że niezawodność nie należy do
cech najbardziej cenionych w oprogramowaniu. Nowe, efektowne, choć często niepotrzebne
funkcje – tak! Widowiskowy interfejs, którego trzeba się będzie od nowa uczyć – jak
najbardziej! Ale zrezygnować z tego wszystkiego w imię stabilności? Latami pracować na
jednej wersji, oglądając w kółko te same ikony i opcje menu? Nie, dla sporej części
użytkowników komputerów osobistych taka perspektywa byłaby koszmarem. Dla żądnych
nowości atrakcję stanowi nawet widok "niebieskiego ekranu" w sytuacji, w
której nigdy wcześniej się on nie pojawiał. Nic więc dziwnego, że większość firm
działających na rynku informatycznym nad ryzyko utraty dobrego imienia przedkłada
zagrożenie zdystansowania ich przez konkurencję. Nawet jeśli oferta owej konkurencji
okazuje się nie mniej zapluskwiona.
Jak wielka
jest wśród właścicieli "blaszaków" ciekawość i żądza nowości, może
świadczyć fakt, że Microsoft zdecydował się sprzedawać wersję beta Windows 98.
Sprzedawał, zamiast jak to jest w zwyczaju rozdawać – bo było wystarczająco dużo
chętnych, żeby za to zapłacić. Można by oczekiwać, że to raczej firmy zaoferują
beta-testerom pieniądze za wyszukiwanie w ich produktach błędów. Tymczasem znalazło
się spore grono użytkowników gotowych "zainwestować" swój czas i pieniądze
oraz zaryzykować utratę danych, byle tylko wcześniej niż inni poznać nowy interfejs
okien. A przecież jest to kolejny, wyraźny znak dla wszystkich producentów software’u,
że nie liczy się jakość, a jedynie blichtr nowości.
Permanentna
niedoskonałość nie dotyczy zresztą wyłącznie oprogramowania użytkowego; cechuje
również sterowniki podzespołów. Co rusz na rynku pojawiają się nowe modele kart
graficznych i dźwiękowych, do których producenci nie zdążyli dostarczyć poprawnie
działających driverów. Użytkownik jest zmuszony korzystać z kolejnych wersji
testowych – przez miesiące, a czasem lata. Zdarza się, że finalna wersja oprogramowania
nigdy się nie ukazuje, bo producent jest zbyt zajęty lansowaniem kolejnych modeli
sprzętu.
Użytkownicy
komputerów rozpieścili producentów. Jeśli coś nie działa, to należy samemu
próbować to naprawić, pytać znajomych i nieznajomych, w ostateczności sformatować
dysk i spróbować wszystkiego od początku. Twórca oprogramowania za nic nie odpowiada i
nie czuje się do niczego zobowiązany. Każdy instalujący sobie nowo nabyty software
musi zaakceptować takie lub podobne oświadczenie: "Nie gwarantujemy, że produkt
jest całkowicie bezbłędny. Ewentualne błędy programowe ujawnione podczas użytkowania
produktu nie uprawniają nabywcy do roszczeń gwarancyjnych". W tej sytuacji
należałoby się chyba cieszyć, że większość aplikacji i systemów operacyjnych w
ogóle działa.
Trzeba
przyznać, że w branży informatycznej pracują wyjątkowo uczciwi ludzie. Konieczność
zaakceptowania warunków umowy "w ciemno" – w chwili otwarcia pudełka z
programem – stwarza ogromne możliwości oszustwa. Wszak umowę (która jest w pudełku!)
zawieramy, zanim możemy zapoznać się z jej treścią! To prawdziwy cud, że programy,
które tylko udają działanie, pojawiają się tak nielicznie. Nie stanowiłoby przecież
problemu napchanie CD-ROM-u binarnym śmieciem, a następnie wydanie go w ładnym pudełku
jako "trójwymiarowego systemu operacyjnego ze zintegrowanym superprofesjonalnym
pakietem biurowym i uniwersalną encyklopedią wszystkiego".
Jednak
nawet najbardziej uczciwy człowiek nie musi lubić się przepracowywać. Produkty
przemysłu informatycznego nie staną się bardziej niezawodne dopóty, dopóki nie
zaczną tego wymagać użytkownicy. Producenci nie będą przecież dostosowywać się do
nie istniejącego zapotrzebowania. Sygnałem świadczącym o tym, że liczy się jakość,
stabilność i solidność, a nie efekt wizualny, mogłyby być poważne problemy firmy,
która naraziła się swoim klientom, kierując do sklepów nie dopracowany towar. Do
czasu, kiedy to nastąpi, możemy liczyć jedynie na niekończące się wersje beta,
które wprawdzie bywają uciążliwe, ale jakże ekscytujące!