GRY-Online.pl --> Archiwum Forum

Karta graficzna nvidia

12.09.2009
19:43
smile
[1]

baso [ Konsul ]

Karta graficzna nvidia

Witam. Jaką kartę graficzną nvidia najbardziej się opłaca kupić żeby wszystkie gry chodziły tak od 300zł+ do 400zł+?

12.09.2009
19:45
[2]

Dennoss [ Child of the Prophecy ]

9800GTX+ lub GTS 250

12.09.2009
19:48
[3]

PitbullHans [ Legend ]

Dołóż ciut i bierz 4870.

12.09.2009
19:57
[4]

gnoll [ Legend ]

PitbullHans ---> GeForca 4870 ? :) Nice :)

Wiem, chodziło ci o Radka ale fajnie to wyglądało.

12.09.2009
20:14
[5]

baso [ Konsul ]

czytajcie uważnie chodzi mi o nvidia, bo jest lepsza

12.09.2009
21:09
[6]

baso [ Konsul ]

a co powiecie o nvidia 9800

12.09.2009
21:09
smile
[7]

Nero-Łowca Demonów [ Demon Hunter ]

Ja jestem z atym co napisał PitbullHans. 4870 albo 4850. Te karty są bardzo dobre, a ceną nie grzeszą. Ale to co bardzo polecam to ATI Radeon HD4770. Moc porównywalna do 9800GT (a nawet ciut lepsza). W CrossFire daje moc porównywalną do GeForce GTX275, GTX280. A cena samej karty to granice 300-400 zł. Tylko trzeba na nią polować, bo tak się dobrze sprzedała, że teraz trzeba jej ze świecą szukać.

Więc ja proponuję jakieś Radeony... 4770, 4850 lub 4870.

PS. Proszę mnie za bardzo nie bluzgać bo nie znam się tak dobrze na kartach graficznych. Słyszałem dużo opinii oraz testów.

12.09.2009
21:12
[8]

PitbullHans [ Legend ]

PitbullHans ---> GeForca 4870 ? :) Nice :)

Umiem czytać ;) Oczywiście chodziło o Radeona, ale jak ktoś chce kupić pop. generację(9800GT) gdy może wziąć 4870 to aż żal mi się tej osoby robi.

12.09.2009
21:17
[9]

gnoll [ Legend ]

Fakt, fanboyostwo za wszelką cenę jest co najmniej nienormalne. A co do [5] postu - znaczy że uważasz że GF 9800 jest lepsze od HD 4870 ? Chłopie, mój 4850 spokojnie ją biję w tej cenie, a co dopiero 4870. No ale skoro wolisz Nvidię....

12.09.2009
21:19
[10]

władca lemurów [ Julian ]

Od zielonych to teraz tylko GTX 260\275\280\295 . Innych "zielonych" kart kupować się nie opłaca , no może jeszcze GTS 250 . Inni się pewnie zgodzą . A od "czerwonych" to HD4850\4870 . Zresztą niedługo wychodzi DX11 możesz się trochę wstrzymać bo ATI niedługo wypuszcza HD58xx i nie wiadomo jakie to będą karciochy .

12.09.2009
21:36
[11]

Likfidator [ Generaďż˝ ]

Ati jest może tańsze, ale moim zdaniem nie jest warte problemów jakie wynikają z używania tej karty. Mimo wszystko wolę nVidię, bo przynajmniej trzyma się specyfikacji, a nie tak jak Ati, że część funkcji na jednych sterownikach działa dobrze, a na drugich wyświetla nie wiadomo co. Ile miałem roboty więcej z pisaniem jednego programu, żeby działał na Ati dobrze. Na jednym radeonie(X200m) było ok, ale artefakty latały, na drugim(x1950) tekst się nie wyświetlał, na trzecim(chyba 4870) podobnie. Co inne sterowniki, to inne rzeczy się działy. Podczas gdy każda karta nVidii na jakiej miałem możliwość testować działała wyśmienicie wyświetlając wszystko jak należy. Nie mówiąc już o tym, że ze zintegrowanymi kartami intela też nie było problemów.

Teraz może jest lepiej, ale jak będę zmieniał kartę to prawdopodobnie będę wolał dopłacić i wziąć nVidię niż ryzykować znowu z Ati.

12.09.2009
23:57
[12]

baso [ Konsul ]

Chyba się zdecyduje na GTS 250.

13.09.2009
11:54
[13]

SplinterFisher16 [ Generaďż˝ ]

Likfidator - nie wiem skąd ty masz te problemy ,ale teraz jakoś ja ich nie widzę może jestem ślepy albo co ? Problemy ze sterownikami ATI to miałem za czasów Radeon'a 9500 teraz jest ok. powiem więcej sterowniki ForceWare Do kart z serii GeForce powodują przeważnie dużo błędów w Systemie nie raz na nich miałem legendarny blue screen z napisem NV4disp.dl

A co do wątku to jak już chcesz tak bardzo NV to pozostaje ci GTS 250 choć zdecydowanie lepszym wyborem byłby HD4770-4850 cóż głupota niektórych ludzi nie zna granic...

13.09.2009
13:19
[14]

titanium [ Legend ]

oj tak głupota niektórych nie zna granic ^^ :D

baso --> gts nie ma większego sensu imho. Jest droższy i to sporo od 8800/9800 mimo że jest dokładnie tym samym. Płacisz za "przebite numery" :)
Przy okazji 8800/9800 zapewnia wydajność analogiczną do HD4770/4850 będąc również znacząco tańszym. I co najważniejsze w wydaniu ASUSA zbudowanym na doskonałych pcb :) Ciekawe, że tym ostatnim to nigdy nikt nie myśli, heh...

13.09.2009
14:06
[15]

PrzemoDZ [ kebab w bulce ]

SplinterFisher16 --> po raz kolejny się z tobą nie zgodzę... teraz jednak w odwrotnej sytuacji ;p

GTS250, w większości gier jest szybszy od HD4850 (który nadal mimo to jest świetną kartą- jednak teraz, gdy ceny GTS'a się z nim zrównały, lepiej brać tego drugiego)

HD4770 jest konkurentem dla 9800GT, a nie 9800GTX/9800GTX+/GTS250

Karta była by zarąbista gdyby była tańsza... teraz jedyną sytuacją w której jest sens ją kupować to gdy zależy nam na małym zużyciu energii, lub gdy chcemy mieć kartę chłodzoną pasywnie- HD4770 malutko się grzeje... Jednak cena 430zł, podczas gdy szybszy HD4850 kosztuje już 360zł a jeszcze szybszy GTS250- 390zł jest trochę nieopłacalne.

titanium -->
gts nie ma większego sensu imho. Jest droższy i to sporo od 8800/9800 mimo że jest dokładnie tym samym. Płacisz za "przebite numery" :)

Nie do końca: GTS250 to przechrzczony 9800GTX+, ten natomiast jest wyżyłowanym 9800GTX przeniesionym do 55nm. 9800GTX to natomiast podkręcony 8800GTS 512MB z dodaną obsługą tri-SLI.

Tak więc- kotlet bo kotlet, ale od 8800GTS i 9800GTX wydajność ma większą.
HD4850 był konkurentem właśnie dla 9800GTX, z którym wygrywał. Wtedy nVidia wydała właśnie 9800GTX+ któremu radek już rady nie dał...

W tej chwili nie znajdziemy już w sklepach 8800GTS, czy 9800GTX+, więc nie wiem do jakich cen porównywałeś cenę GTS'a. Jednak przy aktualnej- od 380zł, jest on bardzo atrakcyjną propozycją (niewiele droższy od HD4850)

13.09.2009
14:26
[16]

titanium [ Legend ]

PrzemoDZ --> koniec końców i tak REALNA wydajność jest ta sama w granicach paru totalnie nieistotnych w praktyce procent, które nadrobić można podkręcając kartę bezproblemowo samemu (zapas ma ogromny). A cena takiego 9800gt to poniżej 350zł... :)

13.09.2009
14:33
[17]

PrzemoDZ [ kebab w bulce ]

Oj, zależy w jakich grach... zresztą- i GTS'a da się podkręcić...

a między 9800GT a 9800GTX+/GTS250 różnica w wydajności jest duża i podkręcenie tego pierwszego jej nie zniweluje.

13.09.2009
14:41
[18]

titanium [ Legend ]

No nie wiem, każdy test jaki czytałem wykazywał pomijanie znikome różnice. Szczególnie po podkręceniu. Masz może linka do takiego który wykazywał by naprawdę zauważalna różnicę? :)

13.09.2009
15:01
[19]

PrzemoDZ [ kebab w bulce ]

niestety teraz znalazłem tylko test w którym występuje GTS250 i HD4850, ale chyba nie muszę ci udowadniać przewagi HD4850 nad 9800GT?

w teście jest użyta karta gigabyte z 1GB pamięci, niestety o większych opóźnieniach niż wersja 512MB... ta w większości tytułów była by jeszcze szybsza.

edit: kolejne porównanie HD4850 z GTS250

różnice wynoszą zazwyczaj ok 5 klatek... nie jest to ekstremalnie dużo, ale zawsze lepiej mieć te 5fps więcej...:) (zazwyczaj, bo np. w GTA4 GTS250 wygrywa z HD4870...)

13.09.2009
15:11
[20]

kajtek603 [ International Level ]

Najlepszy będzie GTS 250 :)

13.09.2009
15:28
[21]

titanium [ Legend ]

PrzemoDZ --> a właśnie przydało by sie (9800GT i HD4850), bo ja żadnej wiekszej nigdy nie widziałem. Ot, kilka fps w tą czy w tamtą...







Tak samo z gts... różnice są, ale widoczne na wykresach a nigdy nie w życiu... (kilka-kilkanaście procent) Podkręcanie zaciera je już całkiem.
Najdrastyczniej widać w crisis full-ultra-max różnica dokładnie zero, trochę niżej z ustawieniami i 4fps... (15/19)



13.09.2009
19:52
[22]

Alien.pl [ Generaďż˝ ]

I rozpoczęła się wojna ATi kontra NVidia cóż jak kolega chce koniecznie NVałkę to niech zwróci sobie uwagę ile mocy (prądu) pożera dana karta, bo może się okazać że zasilacz się podda. Tutaj lepiej (znacznie) wypadają produkty ATI.
Jak NV to GTS250 - GTX260, ale pamiętaj o zasilaczu.

13.09.2009
20:09
smile
[23]

SplinterFisher16 [ Generaďż˝ ]

Ja bym mimo wszystko brał jednak Radeon'a z tego względu ,że to co ostatnio NV robi z tymi kartami (w sensie kotlety) to skandal i powinniśmy jakiś bunt zrobić i nie kupować tych kotletów od NV... Jak się jeszcze okaże ,że GT300 będzie kolejnym kotletem i przeróbką G80 to puszczę pawia na nVidie...

13.09.2009
20:46
[24]

titanium [ Legend ]

Alien.pl --> bardzo ciekawe zważywszy, że w testach platformy na geForce 9800GT zżerają łącznie 228W, przy GTS 250 jeszcze mniej bo 218W. a analogiczne z HD4850 - 243W. Zaiste Ati wypada znacznie, oj znacznie lepiej :)

Patrząc półeczkę wyżej - między powiedzmy HD4890 a GTX 275 jest całe, uwaga - 10% różnicy :) Oj, to już trzeba zasilacza z 2x mocniejszego chyba.....

Po raz kolejny już "lekko" mijasz się z prawdą :)


SplinterFisher16 --> no ba, to skandal że jakaś firma robi karty tak doskonałe, że przemianowane trzy czy cztery razy wciągu trzech lat wciąż spokojnie biją konkurencję która biedna kombinuje jak może i kilkuletnich produktów z rynku zbić nie może niczym lepszym nawet najnowszymi konstrukcjami, no zaiste skandal :D Tak dobre produkty które przez LATA całe dźwigają WSZYSTKIE gry na full, trzeba bojkotować, toż nie przystoi robić tak dobrze, wstyd nvidia! Bierz przykład a Ati, naucz się chłam który trzeba co pół roku wymieniać robić!

Hmmm, a jakby się okazało że G80 od początku miał w sobie algorytmy jeszcze Dx11 to już w ogóle, spuścić nvidię z wodą! Tacy wizjonerzy wybiegający technologicznie generacje w przyszłość nie mieli by prawa istnienia heh! ATi 3 generacje do tyłu górą :D

Zaiste dziwnym jest rozumowanie co poniektórych... :)


PrzemoDZ --> Dopiero w kartach gtx, HD4870 można mówić o jakichkolwiek zauważalnych różnicach, wcześniej wszystkie wymienione karty to to samo... a 9800gt najtańszy przy doskonałej fizycznie (chłodzenie, pcb) budowie. notabene karta 3'letnia, czy ile ona tam ma heh...

13.09.2009
21:15
[25]

SplinterFisher16 [ Generaďż˝ ]

titanium - dobrze dobrze ok G80 to bardzo udana konstrukcja dobrze się trzyma ,ale wciskanie klientowi po raz 3 tego samego pod zmienioną nazwą to IMO skandal więc jak lubisz jak robią cię w balona to proszę bardzo kupuj nvidię

ATi 3 generacje do tyłu górą

O tak ATI do tytuł ! ciekawe w czym ? W tym ,że za podobną cenę dają znacznie lepsze produkty ? W tym ,że ich karty są na GDDR5 podczas gdy NV stoi ciągle na GDDR3 ? ,a może w tym ,że jako pierwsi wykonali kartę ww 40nm ? Jasne popatrz na specyfikację i tak naprawdę się okaże ,że to NV jest do tytułu z technologią...

kilkuletnich produktów z rynku zbić nie może niczym lepszym nawet najnowszymi konstrukcjami,

Taa tylko że tego co słyszałem to NV zanotowało ogromy spadek sprzedaży (przez kotlety pewnie) ,a ATI pnie się w górę...

13.09.2009
21:21
[26]

sajlentbob [ Vetus Fungus ]

titanium---> mnie też zawsze rozwalają teksty o kotletach. Tylko tak się składa, że sam mam najstarszy z tych kotletów w domowym kompie (8800GTS512 - kupionego za niecałe 5 stów ze dwa albo i więcej lat temu) i do dzisiaj nie widzę najmniejszej potrzeby zamiany na cokolwiek nowszego.
No ale niektórzy dość dziwacznie rozumieją pojęcie postępu.

13.09.2009
21:29
[27]

titanium [ Legend ]

SplinterFisher16 --> dostaję doskonały produkt LATA pozwalający bezstresowo grac na full we wszystko (czy to kiedykolwiek wcześniej było do pomyślenia na rynku? czy kiedykolwiek tak było u ATI? ) lub też ten sam produkt po latach wciąż tak samo pozwalający grac na full we WSZYSTKO acz tym razem za marne grosze, w praktyce najtaniej na rynku i jestem robiony w balona? No człowieku, proszę Cię... przeczytaj czasem co piszesz bo to nawet absurdem nie jest :)

To, że nVidia może pozwolić sobie na kotlety to jest nie inaczej jak bezpośrednia "zasługa" ATI, która G80 nie mogła przeskoczyć. To braku poważnej konkurencji możemy podziękować za zastój. Myślisz, ze dzisiaj były by kotlety gdyby ATI raczyło tyłek ruszyć tak by porządnie zlać owy ciągle jeden i ten sam układ? Ale nic z tego. Więc nie w tą stronę klniesz.

A poza tym, czy to naprawdę było by takie dobre? By tak koniecznie wymieniać kartę co rok bo już wchodzi nowa zupełnie? Raczej nie bardzo. Taki okres gdy jedna karta starcza spokojnie na lata jest świetny i tak powinno być zawsze. Poniekąd to SZALENIE dobrze, że ATI zaspało. Oby takich okresów kotletów było jak najwięcej bo to świetny okres dla graczy.
Choć inną sprawa jeszcze jest tu wpływ konsol...

Te 3 generacje wg swoich ówczesnych odpowiedników by spokojnie wynikały gdyby g80 miało dx11 jak sugerujesz :) Co oczywiste jest bzdurą absurdalną którą wymyśliłeś diabli wiedzą po co :)

I z ceną proszę bez kolejnych jaj, bo jak wyżej wyraźnie wypada - cenowo to NV jest sporo korzystniejsza :) I nie ma że boli :) Przeczytaj posty wyżej, porównaj co wypada porównać i tam masz wsio.

Co do technologii - spójrz jeszcze raz na G80 i zastanów się trochę logicznie raz jeszcze - dlaczego kotlety wciąż się sprzedają w najlepsze?

NVdia owszem będzie do tyłu i to straszliwie ale dopiero od przyszłego miesiąca. Do tej pory było jak było i g80 który tak Cię w oczy kuje jest tu najlepszym przykładem, mówiącym wszystko.

"Taa tylko że tego co słyszałem to NV zanotowało ogromy spadek sprzedaży" -> tylko że jak zwykle źle słyszałeś :) Tak pewnie będzie ale teraz dopiero.

Poza tym ciekawi mnie czy podliczyłeś rynek układów Tesla? :) Którymi "technologicznie wypasiona" Ati jakoś no kurcze, nie może się pochwalić...
a co jak co Ale platforma Tesla - choć oczywiście nie dla graczy no i nie dla forumowych krzykaczy - jest najciekawszą technologicznie konstrukcją w światku gpu na przestrzeni dziejów praktycznie.


sajlentbob --> ano właśnie :)

13.09.2009
22:11
[28]

SplinterFisher16 [ Generaďż˝ ]

I z ceną proszę bez kolejnych jaj, bo jak wyżej wyraźnie wypada - cenowo to NV jest sporo korzystniejsza :) I nie ma że boli :) Przeczytaj posty wyżej, porównaj co wypada porównać i tam masz wsio.

tak tylko ,że sytuacja się zmienia ,ale dopiero teraz jak przyszedł czas na karty z dx11 wcześniej taki Radeon HD 4850 był znacznie tańszy od konkurencyjnego GTS'a 250...

tylko że jak zwykle źle słyszałeś :)
Proszę bardzo :



Poza tym ciekawi mnie czy podliczyłeś rynek układów Tesla? :)
A fireGL ?



PS.Nie myśl ,że jestem jakimś Fanboyem ATI bo tak nie jest zresztą poczytaj inne moje starsze posty... ja tylko bronię ATI ! bo nic do nich nie mam i kotlety które produkuje NV są jak dla mnie lekko żenujące...

13.09.2009
22:17
[29]

Mati 88 !? [ Blaugrana ]

Fisher się nawrócił tego się nie spodziewałem.
Aby nie zrobić offtopu polecałbym jeszcze trochę poczekać, do premiery HD5xxx wtedy starsze generacje powinny jeszcze trochę zlecieć z ceny, co do pytania co nie wybierzesz będziesz zadowolony obie karty są naprawdę dobre jak na cenę za którą idzie je nabyć.

Ps co do postu poniżej trochę nie trafne gdyż ARMA w większej mierze korzysta z CPU niż GPU podobnie jak GTA4.

13.09.2009
22:17
[30]

Lukas172_Nomad_ [ Still Alive ]

test tych kart w ARMA 2 :

13.09.2009
22:24
[31]

titanium [ Legend ]

SplinterFisher16 --> 4850 nigdy nie był i nie jest tańszy od 9800GT a to jest rzeczywisty konkurent. W GTSie płacisz nie tak małą kwotę tylko za przebitkę numerów 9800 i fabryczne podkręcenie tego samego układu by zyskać 4-5fps (konkurent zwyczajnie sztuczny), co jest bez sensu. Myśląc z głową - wybór jest jeden, podobnież korzyść cenowa.

W arcie masz jak byk, że sprzedaż na całym rynku jest 15% mniejsza - recesja. Wydaje Ci się, zw przy takich nienaturalnych zawirowaniach gdy najpopularniejsze stają się karty low-end 4% przejęcia od NVIDII i Intela które wciąż mają praktycznie cały rynek cokolwiek znaczy i że to jakieś niebotyczne ilości? Poczekaj aż rynek wyrówna się do normalnego stanu sprzedaży a ludzie zaczną na powrót kupować droższe karty jak i gry w większych ilościach i wtedy porównuj statystyki sprzedaży kart. Bo na razie to loteria jest.

I co ma niby FirePro wspólnego z Tesla? Toż to odpowiednik zwykłego Quadro a nie Tesli jako platformy...


Faktem jest że w tej chwili rządzi ATI i to ostro. NVidia obecnie jest daleeeeko w lesie.

Ale absurdalnych a często nie prawdziwych pierdół na temat nVidii jeszcze tego powodu naprawdę nie ma co wypisywać...

13.09.2009
22:32
[32]

Mati 88 !? [ Blaugrana ]

Co do cen wszystko zależy od modelu gdyż np 9800gt Asus Matrix kosztuje 469zł, a Asus HD4850 z Glaciatorem 385zł.

13.09.2009
23:20
[33]

titanium [ Legend ]

Porządny ASUS 9800GT z glaciatorem kosztuje 320-350zł :) I konkurencji takowoż zwyczajnie nie posiada. Najtańsze 4850 to jednak znacząco więcej. szczególnie teraz w okresie czysto przejściowym.

13.09.2009
23:38
[34]

PrzemoDZ [ kebab w bulce ]

titanium --> nVidia może sobie pozwolić na kotlety??- Przecież to marketing! Nikt się nie czepia że nadal konkurują z AMD kartami na G92b, tylko że robią zamieszanie nadając inne nazwy tym samym kartom! To wprowadza w błąd klienta i nie jest fair wobec mniej doświadczonych użytkowników! Na coś takiego nie może sobie pozwolić żadna firma, niezależnie od tego jak doskonałe produkty posiada...

no ba, to skandal że jakaś firma robi karty tak doskonałe, że przemianowane trzy czy cztery razy wciągu trzech lat wciąż spokojnie biją konkurencję która biedna kombinuje jak może i kilkuletnich produktów z rynku zbić nie może niczym lepszym nawet najnowszymi konstrukcjami

Trochę historii... seria HD38xx powstała by konkurować z G80, czyli starymi 8800GTS i 8800GTX- swoje zadanie całkowicie spełniała... w tym samym czasie wyszedł G90 w postaci 8800GT który był rewolucją... następnie jeszcze bardziej podrasowany 8800GTS 512MB. nVidia zdominowała rynek na rok... W tym czasie obie firmy pracowały nad nowymi generacjami- RV770 i GT200. Z założenia AMD niższy model nowej serii miał konkurować właśnie z 8800GTS 512 a wyższy i jego wersja x2 z GT200- również karty się z tego wywiązały- HD4850 wydajnością przewyższa 9800GTX więc nVidia kilka miesięcy po jego premierze wydała odświeżoną wersję z "+" (czyli obecny GTS250) i gdzie Ty tutaj widzisz jak nVidia bije konkurencję 3 letnimi układami? 3 lata temu to szczytem marzeń był 8800 ULTRA za 2,5k... 8800GT wyszedł niecałe dwa lata temu (październik 2007 o ile dobrze pamiętam) i od tej pory był na bieżąco podkręcany/ulepszany aby w końcu konkurować z z ponad rocznym HD4850, który właśnie do takiej konkurencji został stworzony...

Co do poboru prądu- oczywiście układy nVidii żrą go dużo więcej... i nie sugeruj się danymi producenta- każda firma liczy to na swój sposób, nijak mający się do rzeczywistości... a praktyce zasilacz wystarczający do HD4850 do GTS250 będzie za słaby... tak samo się ma sytuacja z HD4870- kolega niedawno wymieniał grafikę właśnie z HD47 na GTX260 (sklep w ramach gwarancji zaproponował wymianę na coś o podobnej wydajności)- efekt? zasilacz do wymiany... Radka ciągną Pentagram 460W- GTX wymagał 550W...
Zresztą zobacz sobie jakich linii 12V wymagają karty AMD a jakich karty nVidii...

a jeszcze co do podanych przez Ciebie testów:
Już na podstawie pierwszego z nich mozna policzyć że HD4850 jest wydajniejszy od 8800GT o średnio 10-15%- to mało? przykładowo w DIRcie- różnica między 29fps a 37fps jest wg. Ciebie niezauważalna i można ją pominąć? (rozdzielczość HD i wszystko na max)
Albo W Crysisie- 25fps a 32fps... 25 to nie jest płynna gra... natomiast 32 już tak...

GTS250 to kolejne kilka klatek więcej do wyniku HD4850...

To, że nVidia może pozwolić sobie na kotlety to jest nie inaczej jak bezpośrednia "zasługa" ATI, która G80 nie mogła przeskoczyć.

Ależ mogła i przeskoczyła mówisz o G80, G92, czy G92b? A może sam nie wiesz o czym mówisz?

cenowo to NV jest sporo korzystniejsza :) I nie ma że boli :) Przeczytaj posty wyżej, porównaj co wypada porównać i tam masz wsio.

Tak? a jakie karty porównujesz?

Co do technologii - spójrz jeszcze raz na G80 i zastanów się trochę logicznie raz jeszcze - dlaczego kotlety wciąż się sprzedają w najlepsze?

G80 już dawno znikną z rynku bo to była ślepa uliczka...


Poza tym ciekawi mnie czy podliczyłeś rynek układów Tesla? :) Którymi "technologicznie wypasiona" Ati jakoś no kurcze, nie może się pochwalić...
a co jak co Ale platforma Tesla - choć oczywiście nie dla graczy no i nie dla forumowych krzykaczy - jest najciekawszą technologicznie konstrukcją w światku gpu na przestrzeni dziejów praktycznie.


Oj titanum... mu tutaj mówimy o wydajności w grach a Ty z teslą wyskakujesz, jakby Ci co najmniej argumentów brakowało...

4850 nigdy nie był i nie jest tańszy od 9800GT a to jest rzeczywisty konkurent. W GTSie płacisz nie tak małą kwotę tylko za przebitkę numerów 9800

Po kim jak po kim, ale po Tobie się nie spodziewałem usłyszeć takiej bzdury...

Konkurentem dla 9800GT był HD4830, a teraz HD4750...
HD4850 był twożony z myślą o konkurencji z 9800GTX- gdy mu to wyszło bardzo dobrze, nVidia podrasowała swojego konkurenta, żeby jeszcze lepiej mógł z radkiem konkurować...;] i ujrzeliśmy 9800GTX+ aka GTS250...

9800GT i GTS250 mimo że są na tym samym rdzeniu to jednak dwa całkiem różne układy- różnią się niemal wszystkim poza rodziną GPU:

taktowanie GPU:
9800GT- 600MHz
GTS250- 738

taktowanie pamięci:
9800GT- 900MHz
GTS250- 1100MHz

ilość shaderów:
9800GT- 112
GTS250- 128


Wymiar technologiczny:
9800GT- 65nm
GTS250- 55nm


Powierzchnia rdzenia:
9800GT- 324mm^2
GTS250- 276mm^2


Porządny ASUS 9800GT z glaciatorem kosztuje 320-350zł :) I konkurencji takowoż zwyczajnie nie posiada. Najtańsze 4850 to jednak znacząco więcej. szczególnie teraz w okresie czysto przejściowym.



320-350zł za 9800GT... i to ma być dobry wybór!?

HD4850 dużo droższy?!

- jeśli nie pasuje referencyjne chłodzenie poprzedniego- to już jest bardzo dobre.

GTS250:
- bardzo dobry model z wydajnym niereferencyjnym chłodzeniem i sporym potencjałem OC


GTS250 nie jest więc tak jak mówisz- podkręconym 9800GT, tylko inną kartą... Co nie zmienia faktu że kotlet...;] jak i tego że jest od HD4850 wydajniejszy, i przy różnicy w cenie wynoszącej 10-20zł, jest bardzo dobrą propozycją- o ile posiadamy wystarczający zasilacz.

14.09.2009
00:33
[35]

titanium [ Legend ]

PrzemoDZ --> no dobra, to z nazwami akurat jest nie fair. ale w oznaczeniach ATi/AMD to niby porządek jest?

Ja mimo wszystko wolę tańszy i dobry produkt z dziwnymi oznaczeniami niż gorszy droższy, a sensowniej nazwany. Są pewne priorytety. Można mieć takie lub takie.

G92 jednak w prostej linii pochodzi od g80 czyż nie? :) I właśnie g80 raczej trzeba tu postrzegać jako największa rewolucję. Choć o to kłócić się w najmniejszym stopniu nie zamierzam:)
A historia historią, praktyka praktyką. Jak jest na rynku, jaka jest pozycja starego dobrego G92 w najróżniejszych mutacjach które sedno jednak mają wspólne, jego stosunek ceny do wydajności po dziś dzień każdy wie. Co z tego, że konkurencyjna karta (w końcu) go przewyższa jak jest nieproporcjonalnie albo nawet proporcjonalnie droższa?
Układ w takich czy innych mutacjach żyje i ma się bardzo dobrze. 8800GT wciąż po dziś dzień jest świetną kartą. A dobra konkurencja by go dawno zmiotła bez śladu.

Dane producenta mam w... gdzieś :) Podałem zestawy z typowych testów (pclab), nie mam teraz linków, ale co bez problemu w sieci może sobie każdy wyszukać. Bynajmniej żadnego dużo więcej tam nie ma, a dokładnie odwrotnie. I nie jest to pobór samej karty a całego zestawu. Dosyć miarodajne.

Różnice w wydajności (linki wyżej) wahają się w praktyce od 0% do czasem max te 15%. Tak dla mnie to mało. Jeżeli dla Ciebie to jest dużo to tutaj się nie zgodzimy i nie ma o co strzępić języka :) Testy wykazują co mają wykazać, każdy interpretuje jak chce. Dla mnie - to jednoznacznie - mało. Szczególnie, że po podkręceniu ta różnica się zaciera (9800 ma raczej większy zapas od żyłowanego z definicji gts'a). I w ogóle ciężko znaleźć cokolwiek w co nie dało by się grac na takiej podkręconej 9800. Zważ też, że różnica w cenie proporcjonalnie przewyższa maksymalną, rzadko uzyskiwaną różnicę w wydajności. A to jest wyznacznik opłacalności

Dirt w 1920 AAx4/AFx16 (kto tak gra?!) wyciąga wg testu na 8800GT min (a to ma tu większe znaczenie) 25fps. hd4850 31 fps. Tak, dla mnie to znikoma różnica. Na obu jest słabo. 31fps to niby płynność w tak dynamicznej grze? A Zejście minimalnie z ustawieniami na obu kartach daje całkowicie płynną rozgrywkę. Na obu lepiej nieco zejść i się nie męczyć, niż na siłę ciągnąc tego maxa i tej płynności de facto wcale nie mieć. Realny dla gracza efekt jest ten sam.

W Crisis max ultra full różnica jest jak wymieniłem dokładnie 0fps. Wynik jest ten sam. Zejście z ustawieniami powoduje zysk 4fps. No bez jaaaj... w takiej grze 4 fps za >50zł cudów nie zdziała. To jest taka sama rozgrywka.

i czym się wg Ciebie realnie w ostatecznej wydajności różni g92 i g92b? Ano nie przeskoczyła, ta karta wciąż na rynku jest najtańsza a przy tym piekielnie dobra. A to jest wyznacznik nie przeskoczenia. Inaczej było by gdyby konkurencja była tańsza i lepsza.

tesla to w kwestii zaawansowania technologicznego.. Jak ktoś sypie absurdalnymi tekstami że nvidia była do tyłu technologicznie no to przepraszam... Jest faktem, że od lat jest technologicznym liderem na wielu płaszczyznach. A obecnie W samych grach akurat żadnej różnicy technologicznej miedzy jedna czy drugą firmą po prostu nie było.

bzdury wypadało by uzasadnić. Póki co wciąż tego tak naprawdę nie zrobiłeś. wiadomo, że "przebitka" nie jest dosłowna :) Pewne zmiany w układzie są. Choćby sam proces technologiczny. Nie mniej sedno pozostaje te samo. A ostatecznie liczy się tylko i wyącznie wydajność. Testy masz bardzo wyraźne i on są tu sednem. A w nich wszystko jak na dłoni. Wydajnościowo toż to jest przebitka. Sypiesz nazwami które są wiecznie wariacjami tego samego układu ze zmianami tu, albo tam,a wydajność i tak jest jaka jest. To nazwa i marketingowe pozycjonowanie teoretyczne niby wyznacza co jest do czego konkurentem czy rzeczywista wydajność? Bo imho jednak - to drugie.

Dla Ciebie 4 fps w realnej grze, w porywach nieco więcej (no, czasem bywa 20 fps wow, tyle że to przy wartościach >100fps :D ) to jakieś wielkie podrasowanie. a dla mnie nie. Dla mnie to ta sama karta jest, ten sam poziom i tyle. Szufladkowanie po nazwach to sobie można.. zaszufladokować :) Wolę te 50zł zachować sobie do nowej karty. O wiele lepsza inwestycja.

Taktowanie - o ile podkręca się gts, a o ile 9800 bez problemu?

shadery - jak wg Ciebie przekładają się na realne odczucia z gry? Na konkretnych przykładach proszę. Co dokładnie zmienia się w odczuciach z gry z taką a taką ilością shaderów? Jaki ma to wpływ na fps?

Ok, wymiar technologiczny, ten tutaj jest sporo istotny. Pobór mocy (choć jaki ten jest, testy pokazują), temperatury, podkręcanie i tak dalej... Wciąż jednak wyniki sa.. jakie są.

i wiesz, jednak pierwszego najtańszego co wyskakuje z ceneo.pl to bym za bardzo nie tykał... :) Moje ceny są z najlepszych sklepów. Pewnych, takich, które choćby uszkodzoną kartę wymieniają od ręki na nową w jeden dzień bezstresowo. Karta też jest przede wszystkim doskonale wykonana.

Ok, gdyby różnica była 10-20zł nie ma o czym mówić. Tutaj nie ma siec o zastanawiać i tylko brać szybsza kartę. Ale realnie to ja taką różnicę cenową jednak nieszczególnie widzę :) W dobrych sklepach jednak jest większa.

Warta tych 10% / 4 fps? każdy lepiej by sobie sam odpowiedział. Ja wolę odłożyć sobie do karty z dx11 :)

Ale jak pokażesz mi gts'a w atrakcyjniej cenie z dobrego i pewnego źródła to kapituluję :PP

14.09.2009
00:55
[36]

Qbaa [ Senator ]

Ja tylko z kronikarskiego obowiązku ;)
titanium
Poza tym ciekawi mnie czy podliczyłeś rynek układów Tesla? :) Którymi "technologicznie wypasiona" Ati jakoś no kurcze, nie może się pochwalić...
a co jak co Ale platforma Tesla - choć oczywiście nie dla graczy no i nie dla forumowych krzykaczy - jest najciekawszą technologicznie konstrukcją w światku gpu na przestrzeni dziejów praktycznie.

Nie wiem jak im idzie ze sprzedażą tego, ale AMD ma swoje FireStream. Pierwsza karta wyszła w listopadzie 2006, czyli z tego co wiem wcześniej niż Tesla.

14.09.2009
10:28
[37]

PrzemoDZ [ kebab w bulce ]

titanium -->

ale w oznaczeniach ATi/AMD to niby porządek jest? - jak do tej pory nikt nie narzeka... jasna numeracja rodziny i serii, każda seria na nowym GPU, po numerkach łatwo się połapać w wydajności- próżno tu szukać dwóch takich samych kart pod innym nazwami.

Ja mimo wszystko wolę tańszy i dobry produkt z dziwnymi oznaczeniami niż gorszy droższy, a sensowniej nazwany. Są pewne priorytety. Można mieć takie lub takie.

Ależ całkowicie się z Tobą zgadzam... ;] dla mnie również wydajność odgrywa kluczową rolę, a nie nazwa- dlatego właśnie obstawiam przy GTS250, bo przecież- wolę dobry produkt, niż gorszy...

G92 jednak w prostej linii pochodzi od g80 czyż nie? :)

No właśnie nie bardzo... nVidia wydając G92 poszła całkiem inną drogą niż ta którą obierał G80- rdzeń jest przeprojektowany, zmniejszona ilość jednostek ROP, TMU, SP, oraz szyny pamięci, podobne taktowanie a wydajność większa...- G92 to raczej nowa architektura, niż rozwinięcie G80.

Co do poboru energii- tutaj test pokazujący różnicę międzyHD4850 a 9800GTX:


Co do GTX260 a HD4870- już podałem przykład z życia...

Wydajność różnica między 25 a 31fps to mało? przecież to 24% więcej!

Między 100 a 120fps- również 20%...

jeśli komuś 321fps nie odpowiada, zawsze może zmniejszyć ustawienia graficzne- mniej, niż by musiał to zrobić w przypadku 8800G (np, zmniejszyć AF)

4fps jeśli mówimy o ich ilości oscylującej w granicach ~20-30, to wbrew pozorom dużo...

zwłaszcza że przy cenie powiedzmy 34zł za 9800GT do HD4850 dopłacam 30zł ( - i nie mów mi że morele.net to zły sklep) czyli 8%- przy wydajności zwiększającej się nawet o dwadzieścia kilka % (tak jak pisałem- średni o 10-15%).- to się jednym słowem opłaca (bo przecież sam stwierdziłeś że w ten sposób się liczy wyznacznik opłacalności)


i czym się wg Ciebie realnie w ostatecznej wydajności różni g92 i g92b? Ano nie przeskoczyła, ta karta wciąż na rynku jest najtańsza a przy tym piekielnie dobra. A to jest wyznacznik nie przeskoczenia. Inaczej było by gdyby konkurencja była tańsza i lepsza.

Wcale nie jest najtańsza... ;> HD4830 (pomijalna różnica w wydajności na korzyść radka) można dostać już za 300zł (ale trzeba zapolować na Allegro).
Temu że jest dobry, nie zaprzeczę...

Karta konkurencji jest po prostu mniej znana i rozpromowana- w końcu 8800GT jest już długo na rynku i przy swojej premierze zrobił ogromne zamieszanie- trudno jest konkurować z "taką sławą" kartą o której mało kto słyszał...


Sypiesz nazwami które są wiecznie wariacjami tego samego układu ze zmianami tu, albo tam,a wydajność i tak jest jaka jest. To nazwa i marketingowe pozycjonowanie teoretyczne niby wyznacza co jest do czego konkurentem czy rzeczywista wydajność? Bo imho jednak - to drugie.


No właśnie- wydajność rośnie wraz z każdą wariacją. Masz rację że to co jest czyim konkurentem wyznacza wydajność (ale często raczej cena)- dlatego właśnie HD4850 konkuruje z GTS250/GTX+ i 9800GTX, a 9800GT z HD4830 i HD4750 (który może w końcu trafi do Polski...)

Taktowanie - o ile podkręca się gts, a o ile 9800 bez problemu?


Najszybsze 9800GT (600/1800) widziałem taktowane 2000MHz na pamięci- 2200 to już absolutny max, i 675MHz na rdzeniu

W przypadku GTS250, 2200MHz na pamięci to taktowanie referencyjne, a najszybsze mają po 2400MHz, i 770MHz na rdzeniu (referencyjnie 738MHz)
Żaden 9800GT nie zostanie więc podkręcony do poziomu GTS250, tym bardziej że musiał by jeszcze taktowaniem nadrobić 8 TMU i 16SP mniej.


Ale jak pokażesz mi gts'a w atrakcyjniej cenie z dobrego i pewnego źródła to kapituluję :PP


W wydajności różnica jest trochę większa niż ta między HD4850 a 9800GT, czyli powyżej tych 15%. Cena jest do niego bardzo podobna- ok 370zł

- w shifcie sam kiedyś kupowałem- myślę że nie ma sensu dyskutować nad "pewnością" źródła.

Ew. jeszcze teki- - ale ta wersja jest gorsza od tej od Galaxy.

I nie mów mi że te 370zł to nie jest dobra cena jak za kartę 15% wydajniejszą... ;]

14.09.2009
10:51
smile
[38]

sajlentbob [ Vetus Fungus ]

ale w oznaczeniach ATi/AMD to niby porządek jest? - jak do tej pory nikt nie narzeka... jasna numeracja rodziny i serii, każda seria na nowym GPU, po numerkach łatwo się połapać w wydajności- próżno tu szukać dwóch takich samych kart pod innym nazwami.
taaa jasne: 8500 - 9100, 9550(9600) - x300 - X550 - x1050 o ile mnie pamięć nie myli to właśnie ATI było "pionierem" w tej dziedzinie :)

edit
9600 słabsze od 9500
x1600 od x1300pro
9100 silniejsze od 9200

edit:
u nvidii też można by kilka takich myków wymienić. Producenci nie są święci. Wykorzystają każdą okazję, żeby zarobić parę $. A że w wypadku g92 jest to po prostu dobry układ to tylko chwała im za to.

14.09.2009
11:46
[39]

titanium [ Legend ]

Qbaa --> niby fakt, ale tego rozwiązania w praktycznym zastosowaniu to jeszcze nigdzie nie widziałem :) A tesla robi jednak prawdziwą furorę w środowiskach akademickich i bywa wręcz rozchwytywana.


PrzemoDZ -->
"No właśnie nie bardzo... nVidia wydając G92 poszła całkiem inną drogą niż ta którą obierał G80- rdzeń jest przeprojektowany, zmniejszona ilość jednostek ROP, TMU, SP, oraz szyny pamięci, podobne taktowanie a wydajność większa...- G92 to raczej nowa architektura, niż rozwinięcie G80. "
No, tu mnie trochę zaskakujesz przyznam :) Wszelkie opracowania które czytałem zasadniczo twierdziły zupełnie co innego, muszę zgłębić temat nieco bardziej.

"Co do poboru energii- tutaj test pokazujący różnicę międzyHD4850 a 9800GTX:
"
Nawet na przytoczonym nVision wciąż GeForce 8800GT zżera mniej mocy od HD 4850. Natomiast silniejszych kart ati to j tu nie widzę. Nie ma też GTS'a który w mniejszym wymiarze technologicznym wg pclaba zużywa mniej energii od 9800gt. Wciąż więc stwierdzenie że NVidia zżera nie wiadomo ile więcej mija się z prawdą. A zasilacz Pentagrama to tu wyznacznikiem niczego nie jest...

"4fps jeśli mówimy o ich ilości oscylującej w granicach ~20-30, to wbrew pozorom dużo... "
No właśnie nie, bo i tu i tu, na tej i tej karcie i tak każdy normalny gracz po prostu tak samo zejdzie z ustawieniami, czyż nie? wolałbyś mieć 30fps i pseudo full, czy zejść z AA gdzie miedzy takim 4x a 16x większej naprawdę różnicy nie ma a mieć naprawdę płynną rozgrywkę na i tej i tej karcie?

Ale owe 4 fps warto mieć, ale zależy za jaką różnicę w cenie.

Morele.net przyznam nie znam, skoro mówisz że jest ok, niech będzie. ale 370zł nie daje 30zł różnicy lecz 50zł (bo z 320zł). Co stanowi owe 20% ceny. Czy wciąż sie opłaca? Jak mówiłem, można sobie dołożyć do tych 4fps i udawać że się ma fulla a koniec końców i tak obniżyć ustawienia, a można sobie składać za zaoszczedzoną kasę już na kartę dx11. Wzglednie kupić jakąś świetną grę :) (taki wiedźmin za 40zł chodzi :) ) co kto woli :)

"Wcale nie jest najtańsza... ;> HD4830 (pomijalna różnica w wydajności na korzyść radka) można dostać już za 300zł (ale trzeba zapolować na Allegro). "
4830 czasem wypada jak 9800Gt, a czasem gorzej od 9600 GT... Nawet jeżeli przyjąć że są sobie równe, to jaka jest jej cena? Allegro to jednak nie normalny sklep :) Skąpiec wyrzuca jakieś jaja, , w Arescie najtańsza 4830 kosztuje 455zł (!) W prolinie 360zł dostępna na zamówienie,w agito brak. No nie porównujmy kart z allegro do kart które zalegają półki w sklepach...

Mniej znana jak widać nie bez powodu.

"No właśnie- wydajność rośnie wraz z każdą wariacją. Masz rację że to co jest czyim konkurentem wyznacza wydajność (ale często raczej cena)- dlatego właśnie HD4850 konkuruje z GTS250/GTX+ i 9800GTX, a 9800GT z HD4830 i HD4750 (który może w końcu trafi do Polski...) "
taaa, który może w końcu trafi do polski... Jaki to konkurent którego nie ma? 4770 w ogóle w sklepach nie było w swoim czasie, a jak się pojawił to już było tańsze i lepsze 4850 heh... Takiego 4830 normalnie nigdzie nie ma. Co to za konkurenci? No niestety realnym konkurentem, dostępnym i konkurującym wydajnościowo (nieco lepszy) i cenowo (ale nieproporcjonalnie droższy) jest 4850.

"I nie mów mi że te 370zł to nie jest dobra cena jak za kartę 15% wydajniejszą... ;]"
50zl daje te ok 15-20% różnicy w cenie wiec tyle ile maksymalna różnica w wydajności. Nie, imho to wciąż nie jest dobra cena :D
Wciąż mając w stosunku cena/jakość - wyższy minimalnie ale jednak współczynnik u 9800gt, biorę 9800GT a 50zł zatrzymuję do karty dx11 albo wydaję na świetna grę.

Jest to jednak cena dobra od momentu gdy doskonała 9800Gt ASUSA zniknęła z arestu :( w proline de facto też juz jej nie ma. No cóż, mimo wszystko w końcu przyszedł na nią czas. Do tej pory jednak była i w swietnej cenei dobrze się miała :) Spokojnei bijac opłacalnoscią 100zł droższego gts'a za >420zł. Obecnie GTS'a widzę za 385zł przy czym raczej gorszego budową pcb od ASUSa więc imho marnego jako konkurencja. Analogiczny do 9800gt ASUS to z kolei 425zł. Gdy 9800GT za 320zł już nie ma to tylko brać.Ale gdy był nie było się nad czym w ogóle zastanawiać - logiczny wybór był jeden. Z 4850 podobnie.

A teraz to i tak akademicka dyskusja, bo tak czy inaczej już żadnej tego typu totalnie nie opłaca się brać. Teraz t się czeka na nowe premiery :)

14.09.2009
14:21
[40]

SplinterFisher16 [ Generaďż˝ ]

Wciąż więc stwierdzenie że NVidia zżera nie wiadomo ile więcej mija się z prawdą.

Dokładnie przykład ? 2X RADEON HD 4890 mimo że ciut słabszy od GTX 295 zżera znacznie więcej prądu... nie chce mi się szukać linku

sajlentbob - jeśli chodzi o oznaczenia to u ATI najgorszą ściemą był właśnie R9200 dużo słabszy od R9100... ,a u NVIDII zajechano jeszcze dalej jak wciskano GF4MX pod numerkiem właśnie "4" ,a karta była zmodyfikowanym GF2 nadal bez shaderów baa była nawet chyba słabsza od GF2 GTS...

14.09.2009
18:56
[41]

PrzemoDZ [ kebab w bulce ]

titanium -->

zasilacz Pentagrama to tu wyznacznikiem niczego nie jest...

Tylko pokazuje że to co do HD4870 wystarcza, dla HTX260 może być za słabe... ;]

Co do wydajności, to nadal twierdzę że 31fps, to dość płynna rozrywka. Jeśli przy dynamicznej rozgrywce to nie wystarcza, to po wyłączeniu AA i AF uzyskiwane w DIRCIE 33fps przez 8800GT płynności też nie zapewni, natomiast 40fps radka już tak- tak wygląda sprawa po radzonym przez Ciebie "zejściu z detali" na tych kartach- posiadacz 8800GT będzie musiał bardziej z nich zejść...

Co do ceny 9800Gt- za 320zł nie widziałem na skąpcu konstrukcji budzących zaufanie- chłodzenia najtańszych 9800GT od Galaxy, Palita, czy Leadteka raczej nie wyglądają na bardzo wydajne- na nich raczej nie podkręcisz- ceny ciekawszych konstrukcji zaczynają sie od 350-360zł co odbiera całkowicie atrakcyjność tych ofert.

To 50zł oszczędzone na kartę z DX11 raczej nie zrobi Ci dużej różnicy przy wydatku ok 1000zł. Jakieś gierka jest za to ciekawą propozycją...;) ale- na grę mogę z czasem pozbierać i kupić później- jak już kupię kartę to nic z niż nie mogę zrobić...

dawać za 9800GT więcej niż 320zł to bezsens- a skoro w tej cenie nie ma ciekawej oferty, nie pozostaje nam nic innego jak dołożyć te 50zł- czy to w końcu aż tak dużo?

Tutaj teścik HD4830:
- w zdecydowanej większości gier wygrywa z 9800GT- tak... w jednej grze (lost planet) coś jest nie tak bo przegania go 9600GT, ale tylko przy określonych ustawieniach- na innych już HD4830 nadal góruje nad 9800GT. Przy okazji porównaj też wyniki 9800GT do wyników HD4850 i 9800GTX+ (czyli nasz GTS250)

14.09.2009
19:17
[42]

Mr.Kalgan [ Gold Dragon ]




Jak z powyzszego wynika, Radek 4750 moze jeszcze długo nie trafic do Polski. A i nadzieja na super wydajność nowego chipu może być przedwczesna.

14.09.2009
19:19
[43]

Thrall Uther [ Rdzenny POZnaniak ]

2X RADEON HD 4890 mimo że ciut słabszy od GTX 295 zżera znacznie więcej prądu... nie chce mi się szukać linku

Ciut lepszy? To zależy od rozdziałki, w niższych rzeczywiście jest lepszy, ale w wyższych to 2 radki zostawiają GTX 295 w tyle... co do poboru energii, to rzeczywiście 2 radki zżerają więcej prądu, ale nie znowu aż tak znacznie.

14.09.2009
19:43
[44]

titanium [ Legend ]

PrzemoDZ --> to była kosntrukcja perfekcyjna - ASUS z glaciatorem no i najlepszy możliwy sklep. :)

50zł teraz różnicy nie robi i zgadzam się, że dawać więcej jak 320zł za G9800 nie ma sensu, ale dopiero co jak wskazywałem wyżej było to raczej 100zł (za analogiczne jakościowo konstrukcje, a nie najlepsza 9800 vs najgorszy gts co poniekąd zestawiasz :) ), a to już różnica jest.

W każdym razie w życiu bym też nie wydał 1000zł na kartę imho to zero racjonalności działania :) Karty okolic 500zł częściej zmieniane zawsze wypadają najlepiej w dłuższych perspektywach :) i 100zł to już dla takiej 20% ceny :)

W wielu testach HD4830 obrywała od 9600 nie tylko w Lost Planet, ale linków nie widzę już sensu szukać, tej karty po prostu nie ma więc to bezcelowe. :)

14.09.2009
23:24
[45]

Alien.pl [ Generaďż˝ ]

Widzę kolega Przemo, przeją od mnie pałeczkę i wyjaśnił problem z prądem i zasilaniem, więc nie będę go drążył dalej.
Co do NV-ałki sam jeszcze niedawno byłem jej posiadaczem, i moim zdaniem NVidia wypaliła się sensownymi pomysłami na serii 8xxx, reszta to tylko klony, klonów. Natomiast ATi przynajmniej próbuje rozwijać swoje produkty, choć po serii 58xx nie spodziewam się już jakiś rewlacji poza Dx11 z którego skorzystają tak naprawdę posiadacze WIN 7. NVidia natomiast zalewa, bajkami klasy CUDA, czy Physy'x, które tak naprawdę są tylko marketingowymi nazwami mechanizmów DX10.1 i ATi też to obsługuje w dużej mierze, aczkolwiek nie ma na to chwytliwych nazw. Ale może i dobrze.
Co do wydajności poszczególnych kart. To zawsze wojna na liczby, w praktyce i tak wyniki sprzętu który leży na biurku w domu zależą, od konfiga całego kompa, a nie samej karty graficznej, która bez dobrej płyty głównej z dobrym RAMem i odpowiednio mocnego do niej proca, jest bezużytecznym grzejnikiem.

15.09.2009
04:56
smile
[46]

Mafioso56 [ Centurion ]

na górze najsłabsze:)

model1/model2/... (cena1/cena2/...)
‹x=<
y<(...)› = ‹x=<y<(...)›


‹9500GTDDR2/GT120 (150zł/?) <
9500GTDDR3 (195zł) <(...)›
9600GSO48DDR3/GT130 (190zł/250-300zł!) <
4670DDR3 (239zł) =<
9600GT64DDR3 (279zł) =<
9600GSO96DDR3 (384MB-195zł) <
4730 (300zł) =<
4830 (335zł) =<
8800GT/9800GT/GTS240 (core600MHz - 355zł/?/?) <
4770 (465zł) =<
4850 (385zł) =<
8800GTX/8800GTS512/9800GTX/GTS150 (?/?/?/?)<
9800GTX+/GTS250 (466zł/385zł) <
4870 (460zł) =<
GTX260 (585zł) =<
4890 (611zł) =<
GTX275 (745zł)<
...


2900XT/3870 = 9600GT
3850 =<4670DDR3

ATI również mogło stare karty przewartościować na nowe:P z kolei Nvidia jak widać żongluje tymi nazwami bez opamiętania:P niezależnie w jakim segmencie:P

najbardziej opłacalne:

do 200zł 9600GSO96
do 300zł 4730
do 400zł 4850/GTS250
do 500zł 4870
do 600zł GTX260/4890
do 750zł GTX275

oczywiście każdy może dodać coś od siebie lub poprawić... wtedy będziemy mieli jakiś obraz tego co się dzieje obecnie na polskim rynku kart graficznych:P

15.09.2009
14:50
[47]

SplinterFisher16 [ Generaďż˝ ]

Alien.pl - przecież Titanium tłumaczył ,że Ati tak naprawdę dopiero serią 4xxx odrabia straty NV swojego czasu nie miało konkurencji (za czasów 8xxx 9xxx) które były nie nieprześcignione... więc nie dziw się ,że robią klony ''nie do końca jednak takie klony" (które są doskonałe) gdyby Amd nie stworzyło świetnego GPU jakim jest RV7xx było by już dawno po nich bo IMO dwie poprzednie generacje Radeonów nie były zbyt dobre

tak... w jednej grze (lost planet) coś jest nie tak bo przegania go 9600GT

co tu się dziwić wiadomo ,że Lost planet jest grą która powstała przy bliskiej pracy NVIDII co było opisywane przy okazji premiery HD2900 (który spisywał się bardzo słabo w tej grze) póżniej wyszły jakieś nowsze stery które niby tą wydajność po prawiły ,ale i tak dalej karty AMD słabo spisują się w tej grze

15.09.2009
15:31
[48]

titanium [ Legend ]

Alien.pl --> tyle, ze w kwestii zasilania nikt nic nie wyjaśnił. Ja nie ukrywam, ze sam osobiście niczego nie porównywałem w tej kwestii, nie mniej Wasze twierdzenia zupełnie mijają się z testami i to co ciekawe, nawet tymi co sam Przemo podał :)

DX11 będzie z tego co mi wiadomo dostępny pod vistę więc nieszczególnie skorzystają tylko posiadacze 7'mki :) A nie wyobrażam sobie człowieka który siedział by na xp gdy stać go na kartę z dx11. Technologii CUDA z kolei nie wykorzystujesz i zupełnie nie znasz w praktyce. To nie upoważnia to twierdzeń ze to bajki, bo to dopiero jest bujda :) raz jeszcze napisać trzeba, że ta technologia w specyficznych zastosowaniach genialnie sprawdza się w praktyce i nie posiada realnej (jakościowej) konkurencji. Nie mniej już nie długo c stosowne i nieporównywalnie większe możliwości będzie miał każdy posiadacz dx11. Czyli de facto każy posiadacz ati i póki co tylko ati.

Słuszna natomiast uwaga z pozostałą platformą pc'ta. Czasem lepiej wybrać jednak tą tańszą kartę za to złożyć kompa w sposób zbilansowany. :)

15.09.2009
16:46
[49]

Alien.pl [ Generaďż˝ ]

Titanium, ale po co ci jakiekolwiek testy?? w sprawie zasilania?? Na pudełku ci pisze to wyraźnie, nawet jak nie masz karty w ręku bierzesz pod lupę pierwszego lepszego producenta grafki, ściągasz w PDF instrukcję do karty która cię interesuje i tam masz wymogi co do zasilacza. Ot cała filozofia i nauka jak w tym siedzi. Zresztą możemy zrobić małe porównanie mojego RADEON 4870 z 1GB RAM z GTX260. pod tym względem. U mnie na pudle masz napisane tak:
"500 Watt or greater power supply with two 75W 6-pin PCI Express power connector recommended" Dla jednej karty dla dwóch 600W. Ponieważ Nvidia podaje trochę to inaczej, to przeliczymy jeszcze Waty na Ampery. czyli I(A)= P(W) / U(V) ==> 75W / 12V = 6,25Ampera na każdy konektor zasilania, a te są 2.
Dobra GTX 260, ja wezme pierwszy lepszy z brzegu od GIGABYTE. z 896MB RAM dla ścisłości.
"• Hardware
- 500-watt power supply or greater with minimum 12V current rating of 36A."
O.O.. 36 Amper na linii 12V ?? nie wiem czy znajdziesz 500W zasilacz który tyle udźwignie.
Czyli prawie 2x więcej niż dla mojego Radeona, który jest w przybliżeniu podobny do tego GTXa.
Oczywiście możesz się nie zgadzać, ale dla mnie jako elektryka i informatyka po drodze z zawodu, prawa fizyki i matematyki się nie zmieniły, w przypadku prądu i jego poboru. więc dla mnie temat zamknięty.
Co do CUDA które tak bronisz. Jeszcze niedawno miałem GF8600 i zainstalowane sterole do tych CUDÓW. Dla zwykłego posiadacza komputera ta technologia jest bezużyteczna, chyba że ktoś korzysta z najnowszego PhotoShopa który ją wspiera. Physy'x proszę na obrazku Unreal Tournament 3 z włączonym sprzętowym Physy'x na Radeonie. Nie da się na RADKU?? Bzdury które ciśnie NVidia głodym pochlebstwa małolatom i ignorantom. Zresztą to samo dotyczy CUDA, których odpowiednikiem jest niejako XCODE z ATI. CUDA IPhys'x to nic innego jak wykorzystanie sprzętowych procesorów karty graficznej do obliczeń w aplikacjach, i potrafią to tak karty NVidi jak i ATI, tylko że Nvałka zrobiła z tego reklamę a ATI nie.
Natomiast DX11 ma za zadanie skończyć z bajzlem jaki zrobiła NVidia, wprowadzając skoczne nazwy pokroju CUDA, i zunifikować to wszystko w jednym wspólnym dla obu producentów mechanizmie DX11. Natomiast wątpię w DX11 na Viście, DX11 ma wypromować WIN 7, i nowe układy graficzne, więc wątpię, aby M$ się śpieszył z nim na Vistule.


Karta graficzna nvidia - Alien.pl
15.09.2009
17:00
smile
[50]

SplinterFisher16 [ Generaďż˝ ]

Alien.pl - to co na pudełku jest napisane może być błędne przynajmniej ja bardziej ufam testom ,a w tych mniej prądu ciągną GF.
A co do Physx to pragnę ci powiedzieć ,że nie masz w pełni włączonego Physx zresztą popatrz jak by wypadł twój radek z włączonym physx w Mirror's Edge który notebane ma podobne wymogi do UT3 :


Więc to ,że tylko karty NVIDII dobrze obsługują Physx to nie bajka wymyślona dla przedszkolaków tylko autentyczna prawda...

PS.Nie ma takiego czegoś jak NVałka...

15.09.2009
17:11
[51]

titanium [ Legend ]

Alien.pl --> po to by sprawdzić jaka jest rzeczywistość. PDFy i instrukcje nadają się co najwyżej na papier toaletowy jak powszechnie wiadomo :) Stanowczo miedzy efektem rzeczywistego testu a instrukcją - wybieram to pierwsze.

Faktem jest, ze inna sprawą jest całkowity pobór mocy a inną obciążenie poszczególnych linii. Ale mowa była o tym pierwszym. (ile mocy (prądu) pożera dana karta).

Ponadto zaokrągliłeś do całego NVidia vs ATI, co jest de facto wałkiem (Tutaj lepiej (znacznie) wypadają produkty ATI. ). Bo z gtx'ami jest inna sytuacja niż gts'ami (które notabene też zestawiłeś obok siebie) pod względem poboru mocy. Te śmigają na zasilaczach rzędu 450W bez problemu. Wrzucanie wszystkiego do jednego wora zestawiając dwa wybrane modele jest manipulacją.

wg przytoczonego wyżej Nvision: GTX 260 wymaga zasilacza 400W. GTX280 - 450W. a9800Gt jest najbardziej oszczędną kartą w stawce.
No chyba, ze kupuje się Pentagramy...

Tłumaczyłem Ci już, że CUDA wykorzystuje sie w konkretnych zastosowaniach. To totalnie nie ma nic do "zwykłego" usera czy usera z ksiezyca. Jedni używają, inni nie. Ty nie - Twoja strata. Ale nie umniejszaj wartości czegoś czego inni używają w najlepsze :)

Również tłumaczone było, że nie możesz porównywać ze sobą technologii których nawet na oczy nigdy nie widziałeś (co sam przyznajesz). STREAm daje o wiele gorszy efekt. Obraz NIE jest taki sam jak ten wygenerowany z pomocą cuda. Jest bardzo często wyraźnie gorszy. I nie, to nie jest reklama, to jest fakt :) Ale to nie wystarczy poczytać, to trzeba jeszcze poużywać. Koniec. Finito.
(W moje zdanie możesz nie wierzyć, nie mniej artów i komentarzy ze screenami i analizami na ten temat w sieci również masz pełno. Sporo o tym było na pclabie, na THG i innych. Znaleźć nie problem.)

Kompletną bzdurą jest twierdzenie, ze nVidia zrobiła jakikolwiek bajzel. A co, ati w przypadku stream'a to juz niby nie? Przecież cała filozofia jest ta sama, tylko wykonanie o wiele gorsze.

Wątpić możesz, ale zapowiedziany Dx11 na vistę jak najbardziej jest.

Physx'x to tu najmniej istotny, bo tego i tak nigdzie nie ma. :) Ale włączyć ptaszka w opcjach, a włączyć naprawdę to dwie różne rzeczy :)

15.09.2009
21:08
[52]

Alien.pl [ Generaďż˝ ]

Splinter ==> ja natomiast nie ufam testom. Po pierwsze nigdy nie wiadomo co tak naprawdę jest ze sobą porównywane. Ja np. przed zakupem mojego Radka znalazłem jego test i okazywało się po pierwszych słupkach i tabelkach że lepiej kupić GTX 260. Ale po dogłębnym poczytaniu tego testu, okazało się iż owszem GTX wypadł lepiej od mojego Radka, ale ten GTX to nie była zwykła pierwsza lepsza karta z brzegu, tylko model fabrycznie podkręcony w wersji dla overclokovców. Więc trzeba nie tylko patrzeć na słupki, ale przede wszystkim dokładnie czytać takie testy, w których często nieco się kantuje nie mówiąc do końca prawdy.
A przedstawiony przez ciebie test jest bynajmniej dziwny w świetle słów samego jego autora ??
"Platforma testowa. Testowane karty na PC
Na początek kilka słów o optymalizacji – Mirror’s Edge jest grą znakomicie zoptymalizowaną i bez problemu uruchomi się na starszych maszynach. Mało tego – nawet przy ustawieniach minimalnych wygląda obiecująco. Zastosowane efekty PhysX teoretycznie pozwalają osiągnąć wyższą wydajność na kartach nVidii, jednak ich wyłączenie nie daje żadnego spadku, czy przyrostu fpsów. Zatem – wykresy wydajności są standardowe, bez podziału na efekty PhysX."
Dlatego przynajmniej dla mnie przytoczony przez ciebie wykres wydajności Radeona z physy'x jest bynajmniej dla mnie wyssany z palca, i tak naprawdę nie wiadomo jak go zrobiono i pod jakim kątem ?? Moim zdaniem sam autor testu coś tu namieszał, aby pokazać coś co jak sam twierdzi na początku artykułu nie ma miejsca ?? Zresztą jeżeli to silnik UT3 to powinienem mieć straszne spadki w tej grze, a tak nie jest ??
Natomiast testy te pokazują że moja karta idzie łeb w łeb z wyższymi modelami GTX-a mimo iż tak defakto jest zaprojektowana jako konkurencja dla GTX260, to spokojnie konkuruje z GTX 285/295 które teoretycznie powinny ją wykasować.
Titaninium do ciebie nie ma siły, nie komentuje twojej wypowiedzi, wiara też jest ważna. Miałem kartę GF8600 która ma wszystkie bajery NVIDI, i miałem okazję się tym wszystkim pobawić. Powiem ci tyle. Z CUDA jako zwykły użytkownik komputera ani raz nie skorzystałem sensownie poza demami NVidi które można z ich strony ściągnąć. I tyle. Testy artykuły w necie owszem, ale co z tego jak z tego nie korzystasz?? To tak jak by mówić mam w garażu Porshe, ale nie jeździ.

15.09.2009
21:22
[53]

titanium [ Legend ]

Alien.pl --> TY nie skorzystałeś. TY nie korzystasz :) W żaden sposób nie upoważnia Cię to ogólnych do twierdzeń które rzucasz. Przede wszystkim zwyczajnie nieprawdziwych. Przy tym nie ma żadnego znaczenia czy z czegoś korzystasz, czy nie.

Btw, modele podkręcane są w testach dokładnie oznaczone. Zasilaczy natomiast nikt nie "podkręca" :) A Testy też potwierdzają się niezależnie na kilku różnych witrynach :)

15.09.2009
22:00
[54]

Alien.pl [ Generaďż˝ ]

Ta jasne tak sobie to tłumacz. Bla.. Bla.. Bla.. Ale co innego mnie interesuje. Włączyłem UT3 na full z fizyką i bez na 1280x1024 i na moim styranym kompie z WiN XP zainstalowanym od 2 lat i zasyfionym na MAX, jest w FRAPS pokazuje stale 62 FPS. Czyli można uznać za prawdziwe słowa z Mirror’s Edge że włączenie tej opcji niczego nie zmienia na plus czy minus w wydajności. Tym bardziej wykres z phisy'x NV vc ATI jest głupawy, a przynajmniej niezrozumiały?


Karta graficzna nvidia - Alien.pl
15.09.2009
22:10
smile
[55]

Mafioso56 [ Centurion ]

Titanium... korzystasz z CUDA... przedstaw nam co Ci to daje... może wtedy dowiemy się skąd wiesz że nie ma jakościowego konkurenta:P jeśli jednak nie korzystasz to opierasz się o to co gdzieś wyczytałeś i przypuszczam że będzie to jakiś materiał Nvidii;P jeśli nie to podaj te źródło:) skąd czerpiesz taką wiedzę...

no i nawet jeśli czegoś jest więcej na rynku nie znaczy od razu że jest lepsze:) (czasy PIII-P4... pomimo że rozwiązanie intela było słabsze od konkurencji cieszyło się większym "uznaniem" firm:P (można by tu gdybać dlaczego może serwis może coś innego:P może "po prostu":P

masz GTX260? masz go na zasilaczu 500W?...jeśli nie to nie dyskutuj:P
oczywiście w instrukcjach zazwyczaj przesadzają ale bez przesady przy takiej różnicy... jak widać każda karta ma trochę inną naturę inny schemat zasilania:P i przez tą różnicę karty mogą wymagać różnych zasilaczy:P pomimo podobnego ogólnego zapotrzebowania:)

Poza tym to co widać w obecnych grach można uzyskać i uzyskuje się bez "PhysX Nvidii" no może rośnie wtedy obciążenie CPU na Radeonach... :) może kiedyś da to jakąś tam znaczącą przewagę... na razie nie daje:)


jeśli trochę nie na temat to sorry... ale gdzieś mi te kwestie tutaj przemknęły w oczach:)

15.09.2009
22:19
smile
[56]

Alien.pl [ Generaďż˝ ]

Sprawdziłem też przed chwilą COD4 na Full z AA na MAX w 1280x1024 od 56 do 370-FPS, czego trzeba do szczęścia więcej.

15.09.2009
23:18
[57]

titanium [ Legend ]

Alien.pl --> a co to ma do rzeczy? :) Mylisz że "bla bla bla" rodem ze żłobka zagłuszysz fakty jak dzieciom wydaje się, ze to robią? :)

Mafioso56 --> ja akurat nie korzystam w niczym poza Photoshopem (a i to nie w domu a w pracowniach), nie mniej jako wciąż uczeń szkół zajmujących się scricte grafiką we wszelkim wydaniu, z całkiem ciekawymi pracowniami, a jednocześnie fotograf z szerokimi kontaktami w branży mam pewną liczbę znajomych zajmujących się w jednych przypadkach zupełnie amatorską jak i w innych nawet zarobkową obróbką video (choć poboczną wobec fotografii) video i oni w tym siedzą dosyć mocno - maja sprzęt i stosowne oprogramowanie na wszystkim, na ati, na nvidi, jakieś dedykowane karty wszelkiego rodzaju i pełno rożnych cudów a kiju,sam nie wiem często co czym jest :) Mimo wszystko to nie moja działka, czasem wpadam się tylko pobawić, zobaczyć co i jak tak z ciekawości :) W każdym razie z wszelkich nowinek korzystają i zachwalają tudzież ganią :)

GTXa nie mam, ale GTS'a nie jednego widziałem na 500W hulającego. Tak czy inaczej ja nie dyskutuję (moja dyskusja to była na temat czy warto dokładać 100zł z gt9800 do równego jej budową pcb gts'a względnie hd4850 gdzie twierdziłem że nie warto) , zauważam po prostu, ze testy w pewnych kwestiach twierdza wyraźnie co innego - wręcz dokładnie odwrotnego - niż tutaj pada :) Twierdząc inaczej należało by dyskutować z owymi testami nie ze mną :) Zasilacze to akurat zupełnie nie moja działka. No ale ktoś tu kłamie. Albo portale albo ktoś powyżej. :)


póki co myślę, że w tym wątku to raczej tyle z mojej strony, za dużo czasu tu tracę, pierwotny temat był zupełnie inny i głownie już tylko się powtarzam a dyskusja zaczyna wyglądać "bla bla bla" więc chyba nie ma sensu. Com miał rzec to rzekłem :)

16.09.2009
17:40
[58]

Alien.pl [ Generaďż˝ ]

Titan właściwie wali mnie twój punkt widzenie i siedzenia. widać żeś fanboj NVidi, i o czym tu z tobą gadać.

© 2000-2024 GRY-OnLine S.A.