GRY-Online.pl --> Archiwum Forum

Procesory Cor 2 Duo

27.11.2007
18:38
smile
[1]

silvestro150 [ Centurion ]

Procesory Cor 2 Duo

Witam! Mam takie pytanko. Czy w tych nowych procesorach Core 2 Duo jest coś takiego specjalnego, jak np. te dwa rdzenie! I tu nie mogę się połapać. One są dwórdzeniowe tzn. że jak jest ich prędkość (jak w moim przypadku) 2.33 tzn. że jak on posiada 2X2.33????? Bo są dwa rdzenie i ja tego nie łapię. Czy on posiada dwa rdzenie tzn że jego szybkość jest dwa razy większa?? Możecie mi to wyjaśnić?? Wiem że mój wątek jest niezbyt zrozumiały ale nie wiem jak to sformułować może się zorientujecie!!

27.11.2007
18:47
[2]

DJ Pinata [ Red Bull Racing ]

Chodzi ci o to czy jeden rdzeń to 2.33 i drugi 2.33 to da ci 4.66 GHz procesor? Nie. Nie liczy się tego w ten sposób, ale trzeba przyznać, że wydajność jest naprawdę dwukrotnie wyższa.


Dla wyjaśnienia mój procesor ma cztery rdzenie po 2,4 każdy i nie daje to 9,6 GHz, choć pewnie było by fajnie :)

27.11.2007
18:50
[3]

minius [ Senator ]

Wiesz, że w samochodzie masz 4 koła?
Jeśli masz prędkość maksymalną samochodu 200km/h, to maksymalna prędkość obrotowa jednego koła to 200km/h.

A wszystkich kół?
4x200 ?

27.11.2007
19:04
[4]

Dessloch [ Senator ]

o ! lubie zagadki matematyczne.,..

200
4
___

w pamieci 4x0
4x0
4x2

nic nie przenosze wyhodzi 800km/h

ale madry jestem :))

a co do pytana.
to nie. nie sumuje sie mhz.. bo jest to nielogiczne.
aczkolwiek supemarrkety potrafia tak wlasnie uczynic robiac z ludzi idioow :)

i tez neprawda jest ze dziala wszytko 2 razy szybciej..
wszystko zalezy od aplikacji.
pewne jest, ze est to zajebista sprawa, bo rozklada se prace na 2 rdzenie lub 4....
dzieki temu wydajnosc jest o wile wyzsza i o wiele wiece rzeczy mozna naraz robic... (nie oznacza to ze robia sie 2 razy szybciej- chociaz niektore programy maja obsluge wielordzeniowa.. ale przewaznie slabo z niej korzystaja_)

27.11.2007
19:09
[5]

Ezrael [ Very Impotent Person ]

Niemniej to krok w dobrym kierunku. Następnym będzie specjalizacja poszczególnych procesorów.

27.11.2007
19:13
[6]

mikmac [ Senator ]

wbrew pozorom wydajnosc sie prawie nie zmieni.
Pisanie gier pod dwa rdzenie jest dosc trudne, malo ktora to wykorzystuje.
A w codziennych zastosowaniach (kodowanie/dekodowanie mediow, kompresje, obliczenia matematyczne) spokojnie wystarczaja i procki sprzed kilku lat.

Fakty sa takie, ze na papierze masz znacznie wyzsza wydajnosc, z ktorej i tak potrafia skorzystac badz naukowcy, badz studia montazowe, badz informatycy/admini.

27.11.2007
19:14
[7]

Pl@ski [ FlaT ]

aczkolwiek supemarrkety potrafia tak wlasnie uczynic robiac z ludzi idioow :)

Zapomniałeś dodać, że podobną wodę z mózgu robi swoim klientom AMD z jego dwurdzeniowymi prockami...

27.11.2007
20:13
[8]

Conath [ Generaďż˝ ]

A w codziennych zastosowaniach (kodowanie/dekodowanie mediow, kompresje, obliczenia matematyczne) spokojnie wystarczaja i procki sprzed kilku lat.

ty chyba nigdy video nie kodowales:/ albo masz baardzo duzo wolnego czasu...

27.11.2007
20:20
[9]

kamyk_samuraj [ Senator ]

mikmac ->

27.11.2007
20:35
[10]

minius [ Senator ]

Dwurdzeniowe zadania idealnie sprawdzają się w serwerach.
Ja miałem przyjemność hostować na takim procesorze serwer Neverwinter Nigts, z operacjami na bazach danych.
W przypadku jednoprocesorowca już przy 15 osobach serwer lagował.
Po przejściu na Core II Duo nawet przy 50 graczach lagów nie było.
Ale to również zasługa skryptera, który co tylko się dało wrzucał do SQL, a tenże spokojnie był obsługiwany osobnym rdzeniem.

27.11.2007
20:36
[11]

mikmac [ Senator ]

Conath -->
ale ja napisalem, ze w studiu montazowym jak najbardziej tak. Ale w domowym zastosowaniu? Warto leciec wymieniac procek aby 2 razy do roku przemielic film z wakacji w MS Movie Makerze? Sam sobie odpowiedz.

kamyk -->
no i co ty mi chcesz udowodnic? Ze sa szybsze? No sa, tylko popatrz W CZYM.
3dmax, Specview, syntetyczny tester - no pieknie, nawet 40% szybiej. I co z tego? W grach roznica jest znikoma i czesto wynika nie z dwujajowosci tylko poprawionej architektury. A jakie to skomplikowane, wielostrumieniowe, matematyczne operacje wykonuje Kowalski na swoim PC?
Otwiera strony, czasem nabazgrze cos w wordzie albo skompresuje katalog ze zdjeciami aby wyslac kolezance. Do tego to co najmniej 16 jajek mu potrzeba.

27.11.2007
20:43
[12]

Conath [ Generaďż˝ ]

ale ja napisalem, ze w studiu montazowym jak najbardziej tak. Ale w domowym zastosowaniu? Warto leciec wymieniac procek aby 2 razy do roku przemielic film z wakacji w MS Movie Makerze? Sam sobie odpowiedz.

youtube?:)

27.11.2007
20:53
[13]

kamyk_samuraj [ Senator ]

mikmac ->
napisales
A w codziennych zastosowaniach (kodowanie/dekodowanie mediow, kompresje, obliczenia matematyczne) spokojnie wystarczaja i procki sprzed kilku lat.

dalem ci link do testow, z ktorych wynika, ze szybkosc kodowania DivX po dodaniu rdzenia wzrasta o blisko 100%, w tescie WinRARa kazdorazowo dodanie jadra to zysk okolo 20%, w Oblivionie drugie jojko to +12% FPS.
Tak - w chwili obecnej najwiekszy wzrost wydajnosci widac w przypadku pracy z programami do zastosowan typowo profesjonalnych - ale nie ukrywajmy sie - wraz z coraz wiekszym udzialem procesorow n-rdzeniowych na rynku, producenci oprogramowania rowniez do zastosowan domowych beda musieli tworzyc programy przeznaczone do procesorow wielordzeniowych.

27.11.2007
21:04
[14]

minius [ Senator ]

KamykSamuraj - a mnie się wydaje, że to przechodzenie na tworzenie programów pod procesory wielordzeniowe, będzie jedynie kolejnym powodem lenistwa twóców oprogramowania.

Już od dawna wiadomo, że z postępem prędkości maszym odwrotnie proporcjonalnie robi się choćby gry. Najlepszym przykładem niech będzie opiewany na tym forum Wiedźmin (oparty nota bene na engine Aurora, z którego to zasłynął NWN1).

Przecież biorąc pod uwagę gry tworzone wiele lat temu (choćby Quake 1), w obecnych warunkach gry różnią się głównie jakością grafiki, a od tejże jest GPU czyli procesor karty graficznej).
A tutaj niezłe zaskoczenie - im nowsza gra, tym większe wymagania sprzętowe, a MIMO TO GRA CHODZI WOLNIEJ nawet na wypasionych sprzętach.

Poprostu mamy albo coraz gorszych programistów, albo coraz bardziej leniwych (czy ktoś jeszcze zatrudnia koderów, którzy optymalizuja kody przed wydaniem programu?!), albo mają układ z producentami sprzętu i starają się nas nabijać w butelkę, byśmy musieli ciągle gonić "postęp".

27.11.2007
21:23
smile
[15]

silvestro150 [ Centurion ]

Tak ostatnio czytalem CD-Action i tam byly wymagania Crysisa! Pisało minimum: 1GB Ram (mam 2)
Karte 256 obsługłującą szadery 3.0(w moim przypadku GeForce 8500 GT-podkrecona) no i ten procesor 2.8Mhz!!! To mnie zmartwilo. To oznaczy ze Crysis bedzie mi sie scinal nawet na niski deatalch????


Ps. Przypominam moj procesor: Intel Core 2 Duo 2.33Mhz

27.11.2007
21:25
[16]

wysiak [ Generaďż˝ ]

minus -->
"w obecnych warunkach gry różnią się głównie jakością grafiki, a od tejże jest GPU czyli procesor karty graficznej)"
Zgadza sie, dlatego w wiekszosci gier procek ma znaczenie marginalne - wyrozniaja sie tylko te, ktore byly specjalnie napisane pod wielojajkowce. Program napisany do wykonywania sekwencyjnego i tak bedzie dzialal praktycznie tylko na jednym rdzeniu, a drugi w tym czasie moze jedynie wspomagac komputer, przejmujac inne zadania - chocby obslugujac dzialajace w tle programy.

Reszta posta tez sie zgadza - teraz gry pisze sie inaczej, niz kiedys. Nie ma juz takich osobnikow, jak Carmack, ktorzy w pojedynke pisaliby silniki gier, i dyktowali producentom kart graficznych jaki uklady maja projektowac..:) Teraz wiekszosc 'programistow' dostaje gotowe biblioteki do uzycia, i na tym konczy sie ich kreatywnosc - dla producenta to dobrze, bo obniza koszta, ale dla jakosci kodu - nieszczegolnie.
Jednak dobrze napisane przetwarzanie rownolegle potrafi byc NIESAMOWICIE wydajne, pisalem o tym prace inzynierska, i sam bylem zaskoczony gdy dwa transputerki z procesorkami o taktowaniu 20 MHz na testowym programie rownolegle liczacym Pi, czy szukajacym liczb pierwszych, osiagaly wyniki peceta z 486DX. Jednak taki program roznil sie bardzo od zwyczajnego, wykonywanego sekwencyjnie..
Pozostaje wiec chyba czekac na dobre biblioteki..:)

27.11.2007
22:53
[17]

Conath [ Generaďż˝ ]

z tym marginalizowaniem procka w grach bym nie przesadzal, proponuje przekrecic sobie core 2 duo na np. 1ghz i zobaczyc jak wtedy gry dzialaja:)

27.11.2007
23:01
[18]

elementalll [ Centurion ]

ja przekrecilem i nie widzialem roznicy

27.11.2007
23:03
[19]

wysiak [ Generaďż˝ ]

Ani ja. Ciekawe co Conath widzial.

27.11.2007
23:05
[20]

Bajt [ Ariakan ]

elementall -> Na pewno? Mam podobnego kompa i jak ustawie w AI Gear na max power saving, to roznica w fps'ach jest drastyczna :)

27.11.2007
23:10
[21]

kamyk_samuraj [ Senator ]

Ehhh... a teraz bedzie przepychanka kto, co widzial i kto w takim razie ma wade wzroku...

27.11.2007
23:12
[22]

elementalll [ Centurion ]

pare klatek...

27.11.2007
23:12
[23]

QrKo_ [ ]

Czyli to ze na domowym pc (barton 2500) jak nagrywam plytke dvd i klikne przychodzaca wiadomosc na gg to otworzy sie ona po 30 sekundach, a na laptopie (c2d t7500 2,2ghz) natychmiast to nie zasluga drugiego rdzenia? :>

27.11.2007
23:13
[24]

elementalll [ Centurion ]

pamieci tez :)

27.11.2007
23:22
[25]

Ezrael [ Very Impotent Person ]

wysiak - ... dobre biblioteki i rozwinięcie się umiejętności programistów. O ile pewnym działaniom komputera dość łatwo przyporządkować wielowątkowość (np. kompresja video - każdy rdzeń osobno liczy swój kawałek tortu, bo film jest podzielony na wiele krótkich sekwencji: klatka kluczowa-zmiany, które są od siebie zupełnie niezależne) to wspomniane gry komputerowe często wymuszają sekwencyjność.

Przykład nie mój, gdzieś go kiedyś wyczytałem - autor przytoczył sytuację dowolnego FPSa: jeden procesor liczy efekt oberwania pociskiem i oblicza, że poziom zdrowia spadł ze 100 do 80. Drugi, pracujący równolegle, oblicza efekt oberwania innym pociskiem i wylicza, że poziom zdrowia spadł ze 100 (bo ma siłą rzeczy załadowaną do cache'u wartość sprzed zakończenia obliczeń przez pierwszy procesor) do 70. W efekcie otrzymujemy albo bzdurę, bo wynikiem ostatecznym powinno być 50, albo jeden procesor musi czekać na drugi i szlag trafia wielowątkowość.

Dlatego programiści muszą się mozolnie nauczyć myślenia niesekwencyjnego. Wydajny program wieloprocesorowy musi składać się z jak największej ilości całkowicie niezależnych od siebie modułów. W przypadku gier należałoby chyba najpierw rozdzielić w miarę możliwości ich podstawowe konstrukty - na zasadzie: jeden rdzeń byłby odpowiedzialny za AI, drugi za fizykę, trzeci dostarczałby materiału do obróbki przez GPU, czwarty odpowiadałby za dźwięki i składał do kupy całość itd. W ten sposób dość rzadko zdarzałby się sytuacje, że jeden rdzeń musi czekać na wyniki drugiego, co jest główną aktualnie bolączką w przyroście wydajności multiplatformy. A potem, w miarę wzrostu ilości rdzeni i umiejętności programistów te podstawowe konstrukty byłyby dalej już wewnętrznie dzielone.

Wynikiem tego i drugą wg. mnie kluczowa sprawą jest specjalizacja procesorów w przyszłości. Obecne CPU, ogólnie wydajne, mają jednak architekturę do bani. Są dobre do wszystkiego, a więc tym samym w niczym nie osiągają pełni potencjalnej, wynikającej z technologii mocy. Najlepszym przykładem tego są GPU - jednostki wyspecjalizowane. Taktowane o wiele niżej, często technologicznie mniej zaawansowane, ale w swoich zastosowaniach diablo wydajne. Wystarczy chociażby obejrzeć dowolnego 3DMarka i zobaczyć różnicę wydajności między testem GPU i CPU.

Co więcej, GPU okazują się demonami prędkości nie tylko w grafice. Jakiś czas temu zastosowano GPU do skanowania antywirusowego. Co prawda platforma została specjalnie stworzona do tego testu, ale nie ingerowano w sam rdzeń karty (o ile dobrze pamiętam RV600). Wynik? 20-krotna przewaga nad nowoczesnym CPU.

Dlatego przypuszczam, że w ciągu kilku następnych lat powstaną platformy multiprocesorowe (do czego zresztą już się firmy przymierzają), które będą się składały z wyspecjalizowanych podzespołów, takich odpowiedników pixel shaderów, vertexów i innych (ale czy taka specjalizacja jest faktycznie w planach, tego nie wiem). A fachowa wiedza konstruktorów oraz metoda prób i błędów pokaże, jaki jest optymalny stosunek poszczególnych rodzajów podjednostek w platformie.

27.11.2007
23:22
[26]

wysiak [ Generaďż˝ ]

Bajt, kamyk --> Powiem tak - w lapku FS mialem (mam) Pentium M 2.0 GHz. Lapek ten ma taki fajny guzik, spowalniajacy procka o 2/3 - do 666 MHz, reszta kompa dzialala normalnie. Wiele razy zapominalem o wylaczaniu tej opcji, i to nawet w grach typu Prey, HL2 czy FEAR (a nawet Oblivion, choc on klatkowal tak czy owak, bo grafika nie nadazala - ale klatkowal w zblizony sposob niezaleznie od procka). Pierwsza gra, w ktorej byla w miare zauwazalna roznica, byl Dark Messiah of Might and Magic.

Bajt --> Timeshifta to tam nawet nie probowalem uruchamiac..:) Ale skoro "10 minut trwalo ladowanie zanim mozna bylo zagrac" to ten asus musi spowalniac znacznie wiecej, niz tylko procesor.

27.11.2007
23:24
smile
[27]

Bajt [ Ariakan ]

Nie mam zamiaru sie z nikim klocic, ale zrobilem wlasnie maly tescik, uzylem programiku ASUSa do obnizenia taktowania w locie i odpalilem demo Timeshifta. Chyba z 10 minut trwalo ladowanie zanim mozna bylo zagrac, a roznica w plynnosci byla zauwazalna (klatkuje, wczesniej bylo plynnie).

Takie z kolei ja mam doswiadczenia wysiu :P


edit: Mozliwe, ze robi cos wiecej, nie wiem jak dokladnie dziala, ale z tego co widze bawi sie tylko z prockiem.

28.11.2007
00:04
[28]

Conath [ Generaďż˝ ]

Ani ja. Ciekawe co Conath widzial.

DiRT`a z fps`em cos kolo 7. po przelaczeniu laptopa w "maximum performence" powyzej 20.

roznice pokazuje tez np. Medieval: Total War, po przekreceniu athlona x2 4000 na x2 2000:) (mnoznik x5) bylo dokladnie 2x mniej fps. czesc gier widzi roznice. pzdr.

28.11.2007
00:28
[29]

Fish_PL [ Pretorianin ]

A mam pytanie: czy taką samą wydajność jak ma C2Duo osiągne na AMD X2 6000+ ?

28.11.2007
00:31
[30]

Axl2000 [ Hohner ]

Fish - nie choćbyś się zesrał ;) X2 6400+ jest wydajnosci około C2D 6600...zadna rewelka...

28.11.2007
00:35
[31]

Fish_PL [ Pretorianin ]

Ale Crysisa na Highu uciągnie razem z kartą GF8800 GT? O karte się nie martwie, bo widziałem testy - 39-40 FPS, martwie się o procka...

28.11.2007
01:30
[32]

mikmac [ Senator ]

Ezrael -->
Co więcej, GPU okazują się demonami prędkości nie tylko w grafice. Jakiś czas temu zastosowano GPU do skanowania antywirusowego. Co prawda platforma została specjalnie stworzona do tego testu, ale nie ingerowano w sam rdzeń karty (o ile dobrze pamiętam RV600). Wynik? 20-krotna przewaga nad nowoczesnym CPU.

Nvidia juz od dawna sprzedaje swoje GPU jako procesory pod supercomputery. Ostatni produkt Tesla oparty o GF8800 potrafi na pojedynczym procesorze osiagnac 0,5 TFlop - to wynik, jakiego kilka lat temu nie powstydzilyby sie supercomputery w wielkich centrach badawczych.
Domowym sposobem spokojnie mozna zmontowac (i nie wielkim kosztem bo okolo 3-4tys $) 4 Tesle o wydajnosci okolo 2TFlop... to wiecej niz peirwszy Cray.

Dla malych centrow badawczych mozna latwo zestawic supercomputer ze 128 Tesli za nieduze pieniadze, o wydajnosci w granicach 60TFlop.
Dla porownania aktualnie najszybszy supercomputer wyciska okolo 590TFlop, posiada cos kolo 210 tys procesorow i kosztowal a kosztowal bodajze 300 mln$.

28.11.2007
08:56
[33]

Conath [ Generaďż˝ ]

mikmac- no tak, ale te gpu sprawdzaja sie chyba tylko w konkretnym typie obliczen- inaczej juz od dawna by je wszedzie stosowano skoro sa takie wydajne i tanie.

© 2000-2025 GRY-OnLine S.A.