sobota, 14 marca 2015

Niebieskie kontra Zielone - porównanie sprzętu półtora roku po premierze


W latach 90-tych nastolatki nakłaniały rodziców do kupna komputerów "do nauki". Ponieważ rodzice zwykle nie skłaniali się ku ograniczaniu potomstwu drogi do rozwijania kariery naukowej, większość ludzi z mojego pokolenia (rocznik'82) poznawała głównie gry amigowe/pecetowe tudzież komputerowe wersje gier konsolowych.

Konsole jako takie były raczej rzadkością - w końcu jeśli ktoś ma w domu komputer, to na cholerę mu oddzielne pudło przeznaczone tylko do grania, i to w dodatku w gry, które trzeba kupić w sklepie, zamiast zgrać od kolegi?

Obecnie ci sami ludzie nie są już uzależnieni od kitu wciśniętego rodzicom (tak tato, naprawdę potrzebuję tego akceleratora graficznego 3dfx do lepszej obróbki grafiki trójwymiarowej...), a stosunek wolnego czasu do posiadanych funduszy się odwrócił. Pierwsze, polskie pokolenie graczy dorosło i (patrząc po ludziach którzy zasilają moje listy xboxowych i psnowych friendów) przerzuca się na konsole, ciągnąc za sobą "własnoręcznie" założone rodziny.


Czy oznacza to koniec pecetowego grania? Oczywiście że nie. Ludzie zawsze będą mieć komputery i siłą rzeczy będą korzystać z cyfrowych źródeł dystrybucji. Są nawet tacy, którzy twierdzą, że konsole są w odwrocie i ta, obecna generacja, jest już zupełnie ostatnią, bo lada chwila granie konsolowe zostanie wyparte przez urządzenia mobilne (włączając w to laptopy), tak jak ma to miejsce na rynkach azjatyckich.

Szczerze mówiąc to słyszę podobne pierdolenie od kiedy pamiętam. Gdy Doom zakasował strzelanki z Segi Megadrive i SNESa. Gdy akcelerator graficzny przebił Playstation. Gdy Sony chciało się ścigać z urządzeniami multimedialnymi i wydało na świat Playstation 3...

Zawsze okazuje się jednak, że gracze konsolowi wciąż cenią sobie prostotę, wygodę i stabilizację oferowaną przez konsole. Dlatego 8 lat temu PS3 miał ciężki start względem prostszego i tańszego Xboxa 360 i dlatego obecnie role się odwróciły.


Każdy (zainteresowany) wie, że do Xboxa One przylepiła się etykietka konsoli gorszej i "niefajnej". Z tego względu nawet w USA dziecko Microsoftu sprzedaje się nieco gorzej (pomimo tego, że w analogicznym czasie w poprzedniej generacji na każde sprzedane PS3 przypadały tam 3-4 sprzedane Xboxy 360), a w Europie to już zupełna padaka (bo na każdego sprzedanego XBone'a przypadają 2-3 konsole Playstation 4).

Jednak Polska to nie USA i nie zachodnia Europa. U nas kupno konsoli to wciąż znaczna inwestycja i rzadko decyzję podejmuje się pod wpływem emocji (typu "miałem 360, ale Microsoft mnie wkurwił"). Czy Xbox One to faktycznie konsola gorsza?


Co oznacza "gorsza"? W wyrośniętym z peceta światku, zwykło patrzeć się na ten aspekt przez pryzmat ściśle sprzętowy. Im większa ilość herców i bajtów, tym sprzęt lepszy, bo wyświetlający grafikę w wyższej rozdzielczości i z większą ilością klatek na sekundę. Z takiego właśnie, pecetowego punktu obie konsole oferują bardzo zbliżoną architekturę i nawet podzespoły. Tutaj zaczynają się problemy Xboxa, który wydaje się jednoznacznie słabszy.

GPU (procesor graficzny) to w obu wypadkach AMD Radeon i w obu przypadkach był pierwotnie taktowany szybkością 800MHz. Przed premierą szybkość Xboxowego GPU została podkręcona do 853MHz, jednak nie zmieniło to faktu, że procesor ma zwyczajnie mniej jednostek obliczeniowych (Compute Units - czasem tłumaczonych w polskiej nomenklaturze jako "rdzenie" - pomimo tego że Anglosasi przyjęli określać "corami" jednostki wewnątrz CU ;)). Playstation 4 ma ich 18 a Xbox One zaledwie 12 (ponoć obie konsole posiadają jeszcze po dwie dodatkowe jednostki wyłączone do czasu, aż Sony i Microsoft zadecydują, że developerzy z ich konsol wycisnęli już naprawdę wszystko i potrzebny jest dodatkowy zastrzyk mocy).

CPU (procesor główny) to w obu wypadkach ośmiordzeniowy AMD Jaguar. W przypadku PS4 taktowany z częstotliwością 1,6GHz i tutaj mamy lekką przewagę Xboxa z jego 1,75GHz.

Pamięć - w obu przypadkach mamy 8 gigabajtów dzielonego RAMu. Dzielony RAM jest wynalazkiem typowo konsolowym i oznacza tyle, że cała konsola (GPU, CPU, łotewa) ma dostęp do tych samych zasobów pamięci, i tylko od deweloperów zależy, co pójdzie na obliczanie ramki, a co na przechowywanie plików (jak modele, tekstury, dźwięki itd.). W przypadku Xboxa One mamy "staromodne" DDR3 o przepustowości 68,3 GB/s, podczas gdy Sony wjebało do swojej konsoli bardziej szpanerski GDDR5 o przepustowości 176 GB/s (i dodatkowo jeszcze 256 MB DDR3 na wszelkiego typu operacje systemowe). Różnica prędkości znaczna (1 do 2,5) jednak Xbox One posiada jeszcze 32 MB pamięci drugiego poziomu ESRAM, która (pomimo niepozornej wielkości) może okazać się kluczowa.

W obu przypadkach wszelkie gry i aplikacje instalują się w całości na dysk twardy. W przypadku braku miejsca (bo 500GB to nie tak wiele, gdy gry ważą po kilkadziesiąt giga) można się ratować wymianą dysku na większy (tylko w PS4) tudzież podczepieniem dysku zewnętrznego (tylko w Xbox One).


Tak to wygląda na papierze. Z góry zaznaczam że sprzętowo-programistycznym ekspertem nie jestem (znaczy, zdarzyło mi się napisać pracę magisterską na temat rozwoju grafiki w grach komputerowych i poruszała ona podobne kwestie, jednak to było 8 lat temu...) więc generalnie dalsze analizy są kompilacją tego, czym z internautami podzielili się mądrzejsi ode mnie - inżynierowie projektujący obie konsole, twórcy gier itd.

Z góry też zaznaczę, czemu patrzenie na konsole przez pryzmat pecetowy jest pomysłem poronionym. Otóż gdy wyszło na jaw, że nowe konsole będą miały architekturę pecetową, zaraz odezwali się "znawcy" którzy stwierdzili, że z jednej strony to dobrze, bo twórcy gier mają ją opanowaną w małym paluszku. Znaczy że bardzo szybko wykorzystają cały potencjał konsol... co jest w sumie złe bo gry za parę lat nie będą wcale wyglądać lepiej niż wydane do tej pory.

Jest to myślenie typowo pecetowe, zupełnie nie rozumiejące tego, że w przypadku konsol nie jest ważne JAKI sprzęt zostanie przez twórców gier wykorzystywany, ale JAK. Przytoczę tutaj przykład: gdy na PS4 wyszło Killzone Shadow Fall twórcy pozwolili sobie na mały trik graficzny, polegający na interpolowaniu rozdzielczości poziomej. 60 razy na sekundę obliczane były na przemian parzyste i nieparzyste rzędy pikseli, dzięki czemu GPU konsoli miało (niemal) dwa razy mniej pracy, niż przy wyświetlaniu pełnego 1080p w 60 klatkach. Dodatkowo twórcy tak zaprogramowali "zlepianie" każdej z 60 klatek, że największe nerdy z najbardziej specjalistycznych serwisów dopiero po wielu miesiącach analiz zauważyły, iż zamiast pełnego 1920 na 1080 pikseli, mamy tutaj 1920i (interpolowane) na 1080 pikseli.

Czy gdyby Killzone Shadow Fall był grą pecetową twórcy robili podobne triki? Nie. Po prostu zwiększyliby rekomendowane wymagania sprzętowe. Innymi słowy potrzebny byłby dwukrotnie mocniejszy sprzęt do uzyskania niemal identycznych rezultatów. Podobnie gdy Blizzard ogłosił, że Diablo 3 na Xboxie One będzie działać w rozdzielczości 900p, Microsoft wysłał do nich swoich inżynierów, którzy pokazali deweloperowi jak wykorzystać możliwości sprzętowe Xboxa. Efekt? Diablo 3 na XO zaczęło działać w pełnym 1080p przy zachowaniu 60 klatek animacji. Czy Diablo 3 na pececie może poszczycić się podobną optymalizacją?


Sprzętowo konsole PS4 oraz Xbox One będą niezmienione do końca swoich żywotów. Zmieniać się będzie sposób, w jaki deweloperzy będą wykorzystywać ich procesory i kości pamięci. Ciekawe jest to, że choć architektura zarówno PS4 jak Xboxa One wydaje się bardzo zbliżona, to jednak stoi za nimi zupełnie inna filozofia.

Po pierwsze, Xbox One ma (nieco) mocniejsze CPU, za to dużo słabsze GPU niż PS4. Czemu? Bo był projektowany jako wielozadaniowy, multimedialny kombajn, na którym odpalanie gier było jednym z ficzersów (może i najważniejszym, ale nie jedynym). O ile Sony zaprojektowało sprzęt pod kątem jak najszybszego GPU, Microsoft zrobił urządzenie bardzo wyważone we wszystkich aspektach. Czemu zdecydowano się na wolniejszą pamięć DDR3? Jak większość graczy, początkowo myślałem, że Microsoft był zwyczajnie skąpy. Jednak gdy zacząłem wczytywać się w fachowe artykuły okazało się, że DDR3 ma drobną przewagę nad GDDR5 w postaci nieco szybszego dostępu (nie przepustowości, bo tutaj GDDR5 kładzie DDR3 na łopatki). O ile w przypadku GPU różnica nie ma większego znaczenia (tu się liczy głównie przepustowość), o tyle w CPU potrafi to w ogólnym rozrachunku zaowocować nieco większą wydajnością.

Niedostatki wolniejszej pamięci dla GPU inżynierowie Microsoftu postarali się nadrobić za pomocą 32MB pamięci drugiego poziomu ESRAM. Pamięć ta charakteryzuje się szczególną cechą - potrafi być jednocześnie zapisywana i odczytywana, teoretycznie zwiększając swój transfer do czegoś rzędu 200GB/s (a więc nieco szybciej niż GDDR5 w PS4). Oczywiście 32MB to nie jest ilość wystarczająca do typowego obliczania bufora ramki (ponoć nowoczesne gry potrafią pochłonąć na to nawet 1 gigabajt RAMu), ale inżynierowie Microsoftu wsadzili tą pamięć pomiędzy RAM konsoli a GPU w taki sposób, by działała jak rozszerzenie wąskiego gardła.

Jak konkretnie to działa? Tutaj już zachodzą jakieś programistyczno-inżynieryjne czary-mary wyższej szkoły. Wraz z zapowiedziami DirectX 12 (którego przeznaczeniem są komputery z Windowsem 10 oraz właśnie Xbox One), inżynierowie Microsoftu zrobili prezentację, gdzie za pomocą 16MB pamięci drugiego poziomu "odkorkowali" 3GB RAMu. Biorąc pod uwagę, że dla gier na Xboxie przeznaczono 5 z 8GB pamięci (z możliwością zwiększenia, gdy system operacyjny będzie zmniejszał swój rozmiar wraz z aktualizacjami), rozmiar 32MB wygląda na optymalny.


Sony poszło inną drogą. Główny architekt PS4, Mark Cerny, przyznał, że GPU konsoli jest aż nadto potężne. Dodatkowo doładowali ten GDDR5, aby mieć pewność, że (potencjalna) moc procesora grafiki zostanie wykorzystana w 100% przez każdego dewelopera (bez uciekania się do jakichś dodatkowych kruczków, komplikujących sprawę). Tutaj zdano się na trendy i przewidywania, które zakładają, że gry zaczną wykorzystywać GPU dużo, dużo bardziej niż CPU. Niby sprawa oczywista - ładne i szybkie gry wymagają mocnej grafiki (i dlatego niemal od 20 lat nawet w przypadku peceta karta graficzna jest oczkiem w głowie każdego gracza), jednak tutaj mówimy o czymś dalej idącym. Mówimy o przerzucaniu obliczeń zarezerwowanych do tej pory dla CPU (jak np. fizyka i interakcje między obiektami) na GPU.

Po co? Ano dlatego, że GPU jest przez gry wykorzystywane bardzo nierównomiernie (bo żeby było równomiernie, to każda klatka animacji musiałaby przedstawiać scenę wymagającą takiej samej ilości obliczeń) i nigdy nie jest wyżyłowane w 100%. W momenty "bezrobocia" można więc poupychać dodatkowe obliczenia, na czym skorzysta ogólna prędkość działania.


Okej, dla Microsoftu priorytetem było CPU, a dla Sony GPU. Skoro growe trendy są na GPU to czemu Microsoft nie dołożył jednak dodatkowych rdzeni do swojego procesora graficznego, aby wyrównać go pod tym względem z PS4? Oczywiście mogli to zrobić, ale musieli się liczyć z kosztami. Do mocniejszego (a więc droższego) GPU musieliby dołożyć więcej pamięci ESRAM lub dodatkowo kilka gigabajtów GDDR5, a ponoć nawet teraz Xbox One (bez Kinecta) i tak jest droższy w produkcji niż PS4. Albo dokładaliby do każdego Xboxa (balansując na granicy opłacalności), albo zwiększyli cenę swojego "komputera" i popełnili ten sam błąd, który wraz z premierą PS3 popełniło Sony (tracąc na kilka lat pozycję lidera).

O słuszność drogi obranej przez Sony mogą świadczyć różnice w grach wydanych na obie konsole. Te były olbrzymie i działały na niekorzyść Xboxa One - możnaby powiedzieć że na początku PS3 również nie błyszczało względem Xboxa 360 (choćby takie F.E.A.R. czy Half Life 2...), ale dwukrotna różnica w ilości wyświetlanych pikseli (CoD:Ghosts) czy klatek (Tomb Raider) to potężne przegięcie i potwarz. Jednak jak sprawy będą wyglądać w przyszłości? Czy Xbox One zupełnie nadrobi niedostatki nietrafionych założeń konstrukcyjnych?


Może więc drobne przypomnienie. W przeciwieństwie do Sony, Microsoft nie jest producentem sprzętu elektronicznego (Steve Ballmer próbował to zmieniać i stąd m.in. wykupienie Nokii). Jeśli ktoś się zastanawiał czemu Xbox One jest dużo większy i dużo cięższy niż PS4, to odpowiedź jest taka, że po dekadach robienia walkmanów, discmanów, laptopów itd. Sony ma dużo większe doświadczenie w projektowaniu sprawnego, poręcznego sprzętu. Pod obudową PS4 znajduje się masa idealnie dopasowanych podzespołów. Pod obudową Xboxa One kryje się zajebiście wielki wiatrak (włożony zapewne po doświadczeniach Microsoftu z Czerwonym Okręgiem Śmierci w pierwszych modelach trzystasześćdziesiątki) i sporo pustego miejsca między poszczególnymi częściami (i wielki, zewnętrzny zasilacz do tego). Microsoft nie umie konstruować sprzętu na równi z Sony i dobrze o tym wie.

Siłą Microsofta są programiści. Nawet jeśli początkowe założenia sprzętu okazały się nietrafione, to nie ma bardziej kompetentnych ludzi na Ziemi, aby działanie tegoż sprzętu ukierunkować na właściwe tory. Plan (którego początki są widoczne jeszcze przed premierą konsoli, kiedy zdawano sobie sprawę z jej braków względem konkurencji) wydaje się być następujący: o ile Sony przerzuca nadmiar obliczeń z CPU na mocne GPU, to Microsoft postawia zwiększać (i tak nieco większe) zasoby CPU (poprzez coraz większe przycinanie zasobów zarezerwowanych dla obsługi m.in. praktycznie przekreślonego Kinecta, a przez to udostępnianie kolejnych rdzeni na użytek twórcom gier).

Idzie nawet o krok dalej. Pamiętacie to gadanie o "chmurze"? To jest druga siła Microsofta - sieć serwerów, którymi opletli cały, cywilizowany świat. Przy założeniach że większość ludzi gra online, można część obliczeń przerzucić z CPU konsoli na serwer, na którym rozgrywa się gra. Do tej pory wykorzystywano to chociażby w Titanfall, gdzie obliczanie zachowań sztucznej inteligencji odbywa się w całości po stronie serwera. Choć są to pierwsze kroki to jednak mocno obiecujące - wszak o ile konsola jest sprzętem zamkniętym, o tyle infrastruktura serwerów będzie się rozwijać w najlepsze (ten dział Microsoftu przekracza wielokrotnie pod względem zarówno zysków jak i nakładów dział xboxowy).


Założenia są więc takie, że o ile Sony przerzuca obliczenia z CPU na GPU (bo chociaż i oni zainwestowali w chmurę i wykupili takie Gaikai, to jednak infrastrukturę sieciową wykorzystują głównie pod kątem tradycyjnego matchmakingu tudzież dodatkowych usług/ficzersów jak Playstation Now czy Share Play), o tyle słabsze, xboxowe GPU ma pozostać w całości wolne do obliczeń typowo graficznych. Kilka akapitów wyżej napisałem że GPU nigdy nie jest wykorzystywane w 100%. Można jednak zbliżyć się do granic możliwości wykorzystując je bardziej równomiernie. Jak to zrobić? Ot chociażby skalując wyświetlaną rozdzielczość przy okazji każdej klatki. Jeśli w danej klatce GPU ma dużo rzeczy do przeliczania, to pozioma rozdzielczość spada (z pełnego 1920 do jakiegoś 16xx czy 15xx czy 14xx czy 13xx lub nawet niżej), jeśli zaś GPU ma luzy, to mamy obraz w pełnym 1920 na 1080 pikseli.

Czemu akurat pozioma rozdzielczość? Dlatego bo tak długo jak ilość pikseli w jednej osi się zgadza, zmiana rozdzielczości w drugiej jest dużo mniej zauważalna. Jeśli nałożymy na to zaawansowane, xboxowe techniki upscalingu i anty aliasingu, wyniki są imponujące. Weźmy takie Halo 2 Anniversary, które działa w rozdzielczości 1328 na 1080 - pomimo nieco mniejszej ilości pikseli niż w przypadku rozdzielczości 900p (czyli 1600 na 900) gra wygląda jakby działała w pełnym 1920 na 1080. Serio. Mam 60 calowy telewizor od którego zwykle siedzę w odległości może metra i wiem jak piksele potrafią kłuć w oczy. W tym wypadku jest bardzo spoko (a rozdzielczość przecież nie jest skalowana, tylko stale działa w najniższej rozdzielczości zapewniającej stałe 60 klatek!).

Skalowanie poziomej rozdzielczości to nie jest jakiś nowy wynalazek (zastosował go chociażby John Carmack w silniku Id Tech 5, zasilającym Rage czy ostatnio Wolfensteina), jednak Xbox One ma tą technologię wpisaną w swoje bebechy i oprogramowanie. Paradoksalnie mogłoby to oznaczać przekucie słabości Xboxa One w jego zaletę. Wyobraźcie sobie, że gry zawsze działają w idealnie płynnych 60 klatkach, a zamiast spadków płynności występują jedynie (niezauważalne, dzięki zaawansowanemu antialiasingowi) zmiany rozdzielczości. Pięknie, nie?


Aż chciałoby się spytać "GDZIE DO CHUJA JEST TO WSZYSTKO?!"

Gdzie ten next genowy Battlefield, z zaawansowaną fizyką destrukcji otoczenia (działającą idealnie płynnie bo w chmurze) i grafice w wysokiej rozdzielczości wyświetlanej w idealnych 60 klatkach na sekundę? Czemu zamiast tego na Xboxie One drugi raz z rzędu mamy chujowe 720p i grę, która w porównaniu do niej samej działającej na PS4, wygląda niemal jak last gen?! Czemu gdy jakieś studio 3rd party robi grę, to Microsoft musi wysyłać swoich inżynierów aby wyrównać wersję z Xboxa One do tej z PS4 (a poza Diablo 3 taka sytuacja miała miejsce jeszcze w paru innych wypadkach - najbardziej znany to Destiny)?

Powoli. Cykl produkcyjny gier to obecnie około trzech lat. Trzy lata temu pierwsza wersja devkitów nowych konsol (różniących się od ostatecznych produktów zarówno podzespołami jak i ogólnymi założeniami) dopiero co wyszła spod palców inżynierów. Dwa lata temu wersja beta Xboxa działała pod kątem wykorzystania Kinect oraz DRMu. Rok temu Microsoft dopiero skłaniał się ku porzuceniu Kinecta i uwolnieniu większych zasobów już istniejącej konsoli...

Nowe Call of Duty korzysta już nieśmiało z dynamicznej rozdzielczości, a Assassin's Creed Unity to pierwsza gra z półki AAA, która na Xboxie One działa lepiej niż na PS4 (głównie ze względu na mocny nacisk na wykorzystanie CPU w symulowaniu tłumów). W momencie gdy DirectX 12 uczyni opanowanie pokręconej architektury Xboxa łatwiejszym (bo raczej nie należy oczekiwać jakiegoś bezpośredniego zastrzyku mocy w bebechy konsoli), takich przypadków może być coraz więcej.


No, ale Sony przecież też nie będzie stać w miejscu. Może jako firma nie mają takich zasobów programistycznych jak Microsoft, ale już w przypadku PS3 pokazali, że również potrafią rozwiązywać podobne problemy (a teraz dodatkowo startują z wygranej pozycji). Gdy ich "superkomputer" okazał się problematyczny w programowaniu (największym problemem była pamięć sztywno podzielona po połowie między GPU a CPU). Dochodziło do tego, że gry nie tylko działały gorzej i w niższej rozdzielczości niż wersje na Xboxa 360, ale nawet pozbawione były jakiekolwiek anti-aliasingu (co powodowało, że piksele jeszcze bardziej kuły w oczy), podczas gdy konsola konkurencji posiadała 10MB dodatkowej pamięci drugiego poziomu (której spadkobiercą jest ESRAM w Xboxie One), którą to deweloperzy wykorzystywali głównie pod kątem pięknego MSAA (multi sampling anti-aliasing - dzięki któremu standardowe 720p wyglądało na Xboxie 360 lepiej niż ta sama rozdzielczość na PS3).

Co zrobiło Sony? Morphological anti-aliasing (w skrócie MLAA) - technikę wykorzystującą zasoby procesora Cell (CPU Playstation 3) i w wielu wypadkach uzyskującą dużo lepsze efekty niż xboxowe MSAA. Pierwszą grą wykorzystującą MLAA było God of War 3 (które wyszło ponad trzy lata po premierze PS3!). Później ta technika odpowiadała za wygląd playstationowych wersji m.in. Portala 2 czy Battlefielda 3, pomimo tego że pierwsze kroki obu tych serii na PS3 (czyli Portal z zestawu Orange Box oraz Battlefield 1943) wyglądały gorzej niż na Xboxie 360.

W przypadku Playstation 4 Sony już na wstępie zakreśliło drogę rozwoju (wspomniane wykorzystanie GPU do nietypowych dla niego zadań), a jak do tej pory ich wizja okazywała się wiodąca dla obecnej generacji konsol.


No, ale tak podsumowując wszystko w kilku zdaniach, po tej całej, znerdowaciałej do cna analizie, jak sprawa wygląda podczas decyzji o wydaniu dwóch tysięcy (bo poza konsolą potrzebny będzie drugi pad i subskrypcja Gold/PS+)? Otóż powiedzmy sobie wprost - konsole nie są stworzone dla sprzętowych nerdów, tylko graczy. Dla graczy najważniejsze nie są teoretyczne możliwości sprzętowe, tylko gry. Jeśli ktoś uwielbia Halo oraz Gearsy to zupełnie go jebie, że na "jego" konsoli Far Cry 4 działa w niższej rozdzielczości niż na konsoli kolegi wolącego Uncharted i Killzone'a (co najwyżej kolega może potraktować te dodatkowe piksele jako bonus, aby poczuć się lepiej). 

Wybór next genowej konsoli rozbija się w pierwszej kolejności o tytuły ekskluzywne. Wiedzą o tym zarówno Sony jak i Microsoft i dlatego prześcigają się w podkradaniu sobie znanych marek (Street Fighter 5, Tomb Raider 2) tudzież robieniu zupełnie nowych (Sunset Overdrive, The Order 1886 etc.).

To wręcz zabawne jak bardzo Playstation upodobniło się do Xboxa (czy vice versa). Już nawet pomijając gry na wyłączność (gdzie panuje już niemal zupełna symetria gatunkowo-tematyczna "wy nam Forza Horizon - my wam Driveclub, wy nam Infamous - my wam Sunset Overdrive"), sama usługa Xboxa Live upodobniła się do PS+ (pojawiły się darmowe gry co miesiąc, a jedno konto Gold umożliwia teraz grę online wszystkim użytkownikom jednej konsoli), które z kolei upodobniło się do Golda (bo PS+ wymagany jest do gry po sieci). Serio, gdy posiada się obie konsole (i cieszy ekskluzywami z obu stron), to jedyna zauważalna różnica sprowadza się do koloru witającego przy odpaleniu sprzętu i położenia lewej gałki analogowej na padzie.

No więc czemu porównanie grafiki gier multiplatformowych wciąż zdaje się dominować w porównywaniu samych konsol? Bo do tej pory, niemal dwa lata po totalnie spierdolonych zapowiedziach, ludzie wciąż nienawidzą Microsoftu i jeśli jakieś gry wyświetlają mniej pikseli, to jest to powód dobry jak każdy inny, aby dosrać wielkiej, złej korporacji. Gdyby wygląd gier multiplatformowych faktycznie miał znaczenie, to Playstation 2 nie zdominowałoby dużo potężniejszego, pierwszego Xboxa w proporcjach 1 do 6+ sprzedanych egzemplarzy.

Brak komentarzy:

Prześlij komentarz