Beta forever!

Dobiega końca stulecie, którego

drugą połowę śmiało można zwać epoką komputerów. Wydawałoby się więc, że

technologia informatyczna powinna już osiągnąć dojrzałość. Tymczasem niezawodność

oprogramowania w dalszym ciągu pozostawia wiele do życzenia. Och, znam argumenty

przemawiające za niemożnością stworzenia doskonale stabilnego programu: mnogość

konfiguracji sprzętowych, aplikacji i sterowników w połączeniu z błędami

kompilatorów uniemożliwiają sprawdzenie wszystkich słabych punktów.

     Jednak

mniej więcej po roku, dwóch każdy program staje się stabilny – dzięki instalowaniu

kolejnych poprawek. I dzięki setkom, tysiącom anonimowych użytkowników, którzy

kosztem własnego czasu, a nierzadko cennych danych, wykrywają i zgłaszają usterki.

Czyli – zajmuje to sporo czasu, ale jest możliwe.

     Czy aż tak

trudno popracować trochę dłużej i zaoferować przyszłym użytkownikom aplikację bez

błędów? Zwolennicy spiskowej teorii dziejów odpowiedzieliby, że firmom software’owym

nie opłaca się wypuszczać na rynek doskonałych produktów. Twierdzą oni, że każda

nowa wersja, która usuwa stare problemy, to przecież dodatkowy pieniądz do kieszeni

producenta. Czy bez upgrade’ów rynek informatyczny rozwijałby się tak dynamicznie?

Według niestrudzonych tropicieli infointryg firma, która opracowałaby program

bezbłędny i – nie daj Boże! – szybki, ergonomiczny oraz wyposażony we wszelkie

potrzebne funkcje, mogłaby go sprzedać tylko raz. A kolejne wersje zapluskwionych

produktów z powodzeniem są sprzedawane co rok.

     Prawda o

powszechności niedoskonałych programów jest jednak prostsza. Na rynku nie ma miejsca

dla towarów, na które brak popytu. A wygląda na to, że niezawodność nie należy do

cech najbardziej cenionych w oprogramowaniu. Nowe, efektowne, choć często niepotrzebne

funkcje – tak! Widowiskowy interfejs, którego trzeba się będzie od nowa uczyć – jak

najbardziej! Ale zrezygnować z tego wszystkiego w imię stabilności? Latami pracować na

jednej wersji, oglądając w kółko te same ikony i opcje menu? Nie, dla sporej części

użytkowników komputerów osobistych taka perspektywa byłaby koszmarem. Dla żądnych

nowości atrakcję stanowi nawet widok "niebieskiego ekranu" w sytuacji, w

której nigdy wcześniej się on nie pojawiał. Nic więc dziwnego, że większość firm

działających na rynku informatycznym nad ryzyko utraty dobrego imienia przedkłada

zagrożenie zdystansowania ich przez konkurencję. Nawet jeśli oferta owej konkurencji

okazuje się nie mniej zapluskwiona.

     Jak wielka

jest wśród właścicieli "blaszaków" ciekawość i żądza nowości, może

świadczyć fakt, że Microsoft zdecydował się sprzedawać wersję beta Windows 98.

Sprzedawał, zamiast jak to jest w zwyczaju rozdawać – bo było wystarczająco dużo

chętnych, żeby za to zapłacić. Można by oczekiwać, że to raczej firmy zaoferują

beta-testerom pieniądze za wyszukiwanie w ich produktach błędów. Tymczasem znalazło

się spore grono użytkowników gotowych "zainwestować" swój czas i pieniądze

oraz zaryzykować utratę danych, byle tylko wcześniej niż inni poznać nowy interfejs

okien. A przecież jest to kolejny, wyraźny znak dla wszystkich producentów software’u,

że nie liczy się jakość, a jedynie blichtr nowości.

     Permanentna

niedoskonałość nie dotyczy zresztą wyłącznie oprogramowania użytkowego; cechuje

również sterowniki podzespołów. Co rusz na rynku pojawiają się nowe modele kart

graficznych i dźwiękowych, do których producenci nie zdążyli dostarczyć poprawnie

działających driverów. Użytkownik jest zmuszony korzystać z kolejnych wersji

testowych – przez miesiące, a czasem lata. Zdarza się, że finalna wersja oprogramowania

nigdy się nie ukazuje, bo producent jest zbyt zajęty lansowaniem kolejnych modeli

sprzętu.

     Użytkownicy

komputerów rozpieścili producentów. Jeśli coś nie działa, to należy samemu

próbować to naprawić, pytać znajomych i nieznajomych, w ostateczności sformatować

dysk i spróbować wszystkiego od początku. Twórca oprogramowania za nic nie odpowiada i

nie czuje się do niczego zobowiązany. Każdy instalujący sobie nowo nabyty software

musi zaakceptować takie lub podobne oświadczenie: "Nie gwarantujemy, że produkt

jest całkowicie bezbłędny. Ewentualne błędy programowe ujawnione podczas użytkowania

produktu nie uprawniają nabywcy do roszczeń gwarancyjnych". W tej sytuacji

należałoby się chyba cieszyć, że większość aplikacji i systemów operacyjnych w

ogóle działa.

     Trzeba

przyznać, że w branży informatycznej pracują wyjątkowo uczciwi ludzie. Konieczność

zaakceptowania warunków umowy "w ciemno" – w chwili otwarcia pudełka z

programem – stwarza ogromne możliwości oszustwa. Wszak umowę (która jest w pudełku!)

zawieramy, zanim możemy zapoznać się z jej treścią! To prawdziwy cud, że programy,

które tylko udają działanie, pojawiają się tak nielicznie. Nie stanowiłoby przecież

problemu napchanie CD-ROM-u binarnym śmieciem, a następnie wydanie go w ładnym pudełku

jako "trójwymiarowego systemu operacyjnego ze zintegrowanym superprofesjonalnym

pakietem biurowym i uniwersalną encyklopedią wszystkiego".

     Jednak

nawet najbardziej uczciwy człowiek nie musi lubić się przepracowywać. Produkty

przemysłu informatycznego nie staną się bardziej niezawodne dopóty, dopóki nie

zaczną tego wymagać użytkownicy. Producenci nie będą przecież dostosowywać się do

nie istniejącego zapotrzebowania. Sygnałem świadczącym o tym, że liczy się jakość,

stabilność i solidność, a nie efekt wizualny, mogłyby być poważne problemy firmy,

która naraziła się swoim klientom, kierując do sklepów nie dopracowany towar. Do

czasu, kiedy to nastąpi, możemy liczyć jedynie na niekończące się wersje beta,

które wprawdzie bywają uciążliwe, ale jakże ekscytujące!

Więcej:bezcatnews