W pogoni za numerkami

W branży technologicznej a zwłaszcza w połączonym z nią marketingu skierowanym do kupujących, cyfry odgrywają olbrzymią rolę. Wielkości gigabajtów, gigaherców czy megapikseli podawane są w reklamach i porównywane przy zakupie. Ale czy więcej, zawsze oznacza lepiej?

Wyścig zbrojeń pomiędzy technologicznymi gigantami trwa od lat i generalnie wyraża się w cyfrach. Przekątna ekranu telewizora, wielkość matrycy aparatu fotograficznego, szybkość procesora komputera i pojemność jego dysku twardego, czyli tak zwane parametry to bodaj najważniejszy element wpływający na naszą decyzję o zakupie. Porównujemy na ich podstawie produkty w sklepach, bądź w specjalnych witrynach w internecie. Generalnie zasada jest taka, że im wartość jest wyższa, tym sprzęt lepszy i tylko w jednym przypadku szukamy raczej pogwałcenia tej reguły, kiedy sprawdzamy cenę produktu.
Takie są prawa marketingu, że firmy technologiczne zamiast tłumaczyć swoim klientom zawiłości technicznych swoich produktów, wolą w wielkim uproszczeniu ścigać się na parametry, przekonując, że ich model jest lepszy od konkurencyjnego, bo ma czegoś więcej. Liczby znakomicie nadają się do tej łopatologicznej rozgrywki bo zamiast zagłębiać się w niuanse, klient musi jedynie porównać dwie proste wartości, wiadomo że ta większa zawsze wygrywa. Niestety w wielu przypadkach to wielkie uproszczenie prowadzi wręcz do gigantycznych nadużyć i przekłamać, które mogą nas wprowadzić w błąd a sprzęt, który kupimy wysoko rozczarować. Warto więc zagłębić się nieco w liczby, które sprzedawcy drukują grubym drukiem na ulotkach reklamowych, aby zrozumieć co tak naprawdę oznaczają i czy więcej zawsze oznacza lepiej (przynajmniej dla nas).

Wojna na herce (jednostka częstotliwości w układzie SI) trwa od lat, choć mam wrażenie że ostatnio nieco osłabła. Być może rynek wreszcie zrozumiał, że napędzana od lat przez ekstremalnych graczy komputerowych w zasadzie nie ma przełożenia na zwykłych użytkowników komputerów. Przy pomocy tej jednostki określa się bowiem taktowanie (szybkość wykonywanych operacji) procesora komputera. Im większa wartość, tym szybsza jest nasza maszyna, potrafi wykonać więcej zadań w krótszym czasie. Moc obliczeniową współczesnych czipów określa się w gigahercach, wielkościach niewyobrażalnych zaledwie kilka lat temu. Ich szybkość rosła niemal wykładniczo w ostatniej dekadzie kiedy to do wyczerpującej walki stanęły dwa giganty elektroniki precyzyjnej: Intel i AMD. Świat gier komputerowych na PC, które stawały się przez lata coraz bardziej zaawansowane i realistyczne potrzebowały coraz szybszych maszyn, większej mocy obliczeniowej czipów montowanych w komputerach i ich kartach graficznych. Niemal każda nowa gra na rynku miała większe potrzeby i wymagania od komputera, więc przez lata nadążenie za wyścigiem szybkości wymagało wymiany PC-ta co kilka miesięcy. Każdy nowy model stawał się stary w momencie wydania kolejnego tytułu nowej gry. Sytuację nieco ucywilizowały konsole, których nowe modele pojawiają się co kilka lat a producenci nowych gier muszą przystosowywać swoje produkty do istniejącej konfiguracji sprzętowej danej platformy (XBox’a Microsoftu, Playstation Sony albo Wii od Nintendo). Wojna na szybkość procesorów pomiędzy Intelem i AMD niewątpliwie pomogła w rozwoju komputerów, jednakże doprowadziła do sytuacji, że niemal każdy przeciętny użytkownik internetu czy edytora tekstu kupował komputer, który mógł generować skomplikowaną grafikę 3D, słono za to przepłacając. W domu przeciętnego Kowalskiego stał PC, który był bolidem formuły 1 a najczęściej wyruszało się nim jedynie w niedzielę do pobliskiego kościoła.
Ten superszybki komputer stoi sobie spokojnie pod biurkiem w gabinecie i jego procesor jest wykorzystywany w około 5% przez 95% czasu, natomiast w salonie na ścianie wisi gigantyczny, płaski telewizor, w którym według sprzedawcy w sklepie wszystko miało wyglądać lepiej, a tymczasem domownicy mają wrażenie, że na ekranie chyba osadziła się para wodna.
Przekątna ekranu telewizora to jeden z najważniejszych parametrów współczesnego płaskiego telewizora. Wyrażana jest w calach a te największe mogą osiągać nawet więcej niż 50 cali. Wielki telewizor w salonie budzi zazdrość rodziny i przyjaciół, ale obraz na nim wygląda dobrze tylko, jeśli jest wyświetlany w bardzo wysokiej rozdzielczości, a o ten wciąż dość trudno. Tradycyjny obraz telewizyjny w Europie nadawany jest w systemie PAL (także format DVD). To zaledwie 720 pikseli na 576 pikseli, bardzo mało kolorowych punktów na wielkim panelu LCD bądź plazmowym, które oferują sklepy. Taki obraz musi być powiększony i rozciągnięty aby wypełnić nasz telewizor sprawiając, że staje się niewyraźny i rozmazany, jest też nieco wyblakły. Kiedy rozmiary telewizorów zaczęły rosnąć, postanowiono podnieść rozdzielczość nadawanego sygnału do tzw. HD (High Definition). Większość współczesnych telewizorów wyświetlają właśnie taką maksymalną rozdzielczość (istnieje tylko wersja panoramiczna 16x9 czyli 1920 na 1080 pikseli). To dużo więcej niż PAL, ale migracja stacji telewizyjnych do standardu HD nadal trwa (cyfrowa telewizja naziemna w Polsce nie oferuje żadnych kanałów TV w HD, trwają testy Polsatu i TVN, TVP obiecuje wyższą rozdzielczość na Euro 2012). Należy więc pamiętać, że większa przekątna ekranu odbiornika sprawia, że przy obecnej oferowanej rozdzielczości nasz obraz raczej się pogarsza i naprawdę duże panele zalecane są jedynie do bardzo dużych pomieszczeń.
Bardziej skomplikowana jest sytuacja z matrycami aparatów fotograficznych. Niemal dogmatycznie przyjmuje się, że większa liczba pikseli matrycy pozwala na robienie zdjęć lepszej jakości. I w zasadzie jest to prawda, ale tylko przy zachowaniu zasady, że w parze z dużą matrycą idzie znakomitej jakości układ optyczny. Ilość megapikseli to w zasadzie wielkość światłoczułej matrycy w naszym aparacie bądź telefonie komórkowym. Im większa, tym nasze zdjęcie może mieć większość rozdzielczość. Jednakże te wszystkie miliony pikseli muszą podczas otwarcia migawki zostać naświetlone. Jest to stosunkowo łatwe w przypadku aparatów typu lustrzanka, gdzie odpowiedni obiektyw i cały układ optyczny pozwala na dostęp dużej ilości światła. W przypadku małych aparatów kompaktowych a zwłaszcza telefonów komórkowych obiektywy są mikroskopijnych rozmiarów, ilość światła wpadająca do wnętrza znikoma i nasze zdjęcia paradoksalnie mają więcej szumów, kiedy ilość pikseli na matrycy jest większa. Choć nasze zdjęcia są większe, to ich jakość w sumie jest gorsza, często są nieostre, rozmazane, zamglone. Warto zastanowić się także, czy faktycznie w telefonie komórkowym, z którego zdjęcia zazwyczaj wędrują na serwisy społecznościowe w niskiej rozdzielczości (oszczędność miejsca na serwerach) rzeczywiście potrzebujemy matrycy o pojemności porównywalnej z profesjonalną lustrzanką.
Przykłady takich wyścigów na parametry można mnożyć. Rozsądny użytkownik, aby nie przepłacać a także nie poddawać się trikom reklamy i marketingu powinien czasem zadać sobie pytanie, czy faktycznie więcej znaczy lepiej. Czy potrzebuje jako przeciętny użytkownik, sprzętu z najwyższej półki. Być może warto zwrócić uwagę na inne przymioty produktu, takie jak design, łatwość obsługi, awaryjność etc. Czasami samo studiowanie wielkości poszczególnych parametrów może wprowadzić nas w błąd, postawić nas w środku wyścigu, w którym w ogóle nie chcemy brać udziału i który może kosztować sporo pieniędzy i wcale nie przynieść wymarzonej satysfakcji z ich wydania.
Trwa ładowanie komentarzy...