Pomoc - Szukaj - Użytkownicy - Kalendarz
Pełna wersja: GF FX 5200 vs Radeon 9600 PRO
Forum Serwisu: Polskie Centrum Enemy Territory > Problemy techniczne z sprzętem, sterownikami, systemami operacyjnymi > Hardware & other Software
ETPleja
Otóż w niedługim czasie będę dysponował skromną sumką 400 zł i postanowiłem wymienić kartę graficzną w kompie. W tej chwili mam GF FX 5200 i karta ta nadaje się chyba tylko do wyrzucenia... sad.gif Czy opłaca mi się wymiana na Radeona 9600 pro i jaki byłby wzrost wydajności w stosunku do karty nvidii (zadkładając, że w ogóle jakiś by był). Gdzieś na forum pclab przeczytałem, że karty ati mają problemy z grami na silniku quake'a, znalazłem nawet post gostka, który napisał, że po przesiadce na radka 9600 pro z gf mx (!!!) wydajność nawet spadła blink.gif

Najlepiej żeby wypowiedzieli się posiadacze Radeona 9600 pro (i tylko pro, bo zwykłe wersje sporo odstają), ale z chęcią przeczytałbym także jak ET chodzi na Radeonach 9550 pro (bo jeszcze się zastanawiam czy może zaoszczędzić na karcie i kupić sobie jakąś podkładkę, np qck tongue.gif )
conish
Mam radka 9600 pro (sapphre). Karta jest calkiem spoko. Nie mam problemow z fps. Cfg tez nie mam specjalnie wysrobowanego. com_maxfps jest taki jak sobie zycze na kazdej mapie.
Swiety
Radeony 9600 Pro występują w wielu wersjach zależnie od producenta z różnym zegarem pamięci. Ten zegar wacha się od 600 Mhz (normalnie) do aż tylko 366 Mhz. Nie musze chyba mówić że w tym ostatnim przypadku przesiadka z FX5200 na takiego zubożonego Radeona chociaż polepszy się troszkę wydajność to nie ma sensu.

Tak Radeony nie najlepiaj działają w środowisku OpenGL gier IDSoftware. W innych grach Direct3D działają bardzo dobrze a nawet lepiej niż porównywalne produkty Nvidii.

Musisz sobie policzyć. Za tego Fx-a na wtórnym rynku dostaniesz 150 góra 200 zł.
Na nową kartę chcesz wydać 400 zł - za tą cenę nie kupisz 9600 Pro wersji z 600 Mhz pamięciami. Taka kosztuje ponad 500 zł.

Jeśli tylko myślisz o grach na engine Quakea to możesz za kasę która dostaniesz za FX5200 kupić (ewentualnie trochę dołożyć) używanego GF4Ti (Sam GF3 jest szybszy od FX5200 biggrin.gif ).

A ja wszystkim polecam kupno GF6600. Co prawda najtańsza wersja na AGP kosztuje ok 550 zł ale porównując jej możliwości i wydajność kupowanie aktualnie nowej innej tańszej karty to wyrzucanie pieniędzy w błoto.
ETPleja
Szczerze mówiąc (a raczej pisząc tongue.gif ) to chcę kupić kartę tylko do ET. Nie interesuje mnie obsługa DirectX 9.0c i tym podobne bajery. Nie chcę też kupować karty "na lata". Chodzi mi _tylko_ i wyłącznie o kartę do ET. Z chęcią kupiłbym GF 6600 GT i to napewno byłby dobry zakup, ale niestety musiałbym wymienić połowę sprzętu sad.gif .
Prosiłbym tych co posiadają radka 9600 pro o podanie ilości fps w najgorszych momentach, np. po wyjściu na zewnątrz na radarze (napiszcie ile jest z trawą, a ile bez).

A co do wersji 9600 pro to myślałem o 400/466 MHz. Na ile można by podkręcić taką kartę, nie bawiąc się w dołączanie radiatorów?
southorn
Wtrącę jakieś trzy grosze od siebie.
Otóż Radeon 9600 to dobry wybór (za te pieniądze). Dlaczego?

1. Pełna obsługa DirectX 9 (seria nVidii 5xx0 niestety nie, polecam sprawdzić w np. Half-Life 2)

2. Nie wiem skąd opinia, że w grach OpenGL są problemy. Nie ma, żadnych. Wszystko chodzi jak należy.

3. GF5200 to dzisiaj nieporozumienie (jak pisał Święty, GF4 i nawet dobry GF3 są lepsze w DX8.1 oraz w Quake III, ET i pochodne)

4. Za 400zł można kupić dobrego 9600pro. Jako przykład: mój GeCube 9550 Extreme (układ czyli rdzeń RV360, ten który jest montowany w kartach R9600XT). Taktowania na poziomie R9600pro: rdzeń 430Mhz, pamięć 640Mhz (podkręcona)

5. Na tym układzie pograsz w prawie każdą nową grę. Half-Life 2 w 1024x768 max detale + AAx2 AFx8 osiąga średnio ok 30-50fps (testowałem)

Podsumowując: I tak najlepszym wyborem w tej chwili jest (znów zgodzę się ze Świętym) nVidia GF6600. Pełna obsługa DX9c + Shader-y 3.0 i wydajność naprawdę dobra (karty znakomicie się podkręcają). A cena już nawet 499zł (www.proline.pl, Winfast GF A6600TD 128 AGP)



PS. Mojego GeCube-a oddam od ręki za 200zł (myslę właśnie o GF6600 lub bardziej GF6600 GT)

PS2 <- to taka konsola biggrin.gif

PS3 U mnie przy 1024x768 i wszystko max, stałe 125fps (czasem na otwartym terenie spadnie do 80-90fps). Radar to oczywiście odrębna sprawa tongue.gif ale w trawie stałe 43fps spoko. Zrobiłem demko i średnia timedemo coś ok. 75fps

Pozdrawiam.
Estaloth
Zamiana 5200 na 9600Pro to dobry wybór, o ile pamięci nie maja obnizonego taktowania (o czym pisał juz Swiety). Wydajność w grach podniesie się znacząco, nawet w grach na enginie Q3. Po prostu FX'y najogólniej mówiąc przez spieprzone shadery charakteryzują sie niską wydajnością, zaczęły się wiec kombinacje ze sterownikami, co w efekcie dało pare procent wydajności więcej kosztem pogorszenia obrazu, a mimo to karty te dalej są z dupy.

Co do radeona 9600pro to po wyjsciu 6600 nie jest juz tak opłacalny jak kiedys. Jednak w ET pozwala wyciągnąć 76 klatek (reszta zalezy od reszty sprzetu, cfg'u etc.). Biorąc jednak pod uwagę cenę warto zainteresować się Radeonem 9550 Extreme firmy GigaCube, który posiada taktowania rdzenia/pamieci 430/550, przy czym pamiątki można jeszcze kręcić. Dodam też, że karta ta ma model GPU r360 czyli ten sam jaki posiada Radeon 9600 XT (przez co w windowsie wykryje go własnie jako r9600xt). Przy cenie ~400zł (czyli tyle ile ma ETPleja) moim zdaniem bedzie najlepszym wyborem.
CYTAT
Na ile można by podkręcić taką kartę, nie bawiąc się w dołączanie radiatorów?

Imo glupie pytanie. Kazda karta to lotto i nie ma uniwersalnego limitu na ile dana karta się kreci. Na dzień dobry +20 do rdzenia i +50 do pamięci i test, potem dodawanie +5 do rdzenia i +10 do pamiątek i testowanie. Można trafic na model który swietnie sie kreci, jak i na taki który kręci się słabo.

Kwestię 6600 opisałem TUTAJ.

Dodam tylko, że shadery w 6x00 są w wersji 3.0, które nie są w pełni dopracowane przez co 6600 to karta z rewelacyjnym texturowaniem, rewelacyjnym pixelshaderem, kulejącym silnikiem oświetleń i kulejącym vertex shaderem. Za kilka miesięcy wyjdzie nowy chipset ati z serii r510 (na którym oparty bedzie 32 potokowy FUDO), z dopracowanymi shaderami i dopiero wtedy bedzie mozna docenić dopracowane shadery i ich wpływ na wydajność. Wiele osob zarzuca ati ze ich shadery sa przestarzałe, a imo ati zamiast wydawać shadery 3.0 juz teraz, niedopracowane byleby nie być "gorszym" od nvidii wie co robi i uderzy z FUDO, który bedzie juz miał nie tylko dopracowane shadery, ale takze 32 potoki, pamieci qdr i wieloma innymi bajerami. Piszę to po to by nie zachwycać sie shaderami 3.0, ponieważ wszelkie zarzuty do kart nvidii (choć jest ich niewiele) tyczą sie właśnie shaderów i silnika oświetleń. Ludzie zachwalaja 6600 bo po wpadce z FX'ami nvidia wypuściła w koncu nie całkiem z!@#aną kartę, a ati od 2 lat (od wydania r9700) ciągle wydaje najlepsze moim zdaniem karty graficzne, więc ile można chwalić to samo?
ETPleja
Co sądzicie o tym:
http://sklep.komputronik.pl/pelny.php?id=14050

Warto by to kupić?
Swiety
Kawał dobrego postu podsumowującego 6600 Estaloth.

Jeśli chodzi o gry sponsorowane przez Nvidię to o ile pamiętam to John Carmack najpierw kochał 3dfx później jak 3dfx-a przejęła Nvidia to zaczął kochać Nvidię (czyli zostało w rodzinie).
Co do sponsorowanie gier przez Nvidie - Doom III jest grą mroczną, dużo cieni a mało oświetlenia. Jak już było wspomniane oświetlenie w serii 6xxx kuleje ale chyba bez sensu jest twierdzić, że 6600 ma słabe oświetlenie bo Doom III tego nie wymaga, albo że dlatego że 6xxx ma słabe oświetlenie to ID Soft specjalnie nie zastosowało rozbudowanego oświetlenia.
Z drugiej strony można powiedzieć że HF2 to gra pod ATi - zawsze znajdzie się gra która na tym chipie chodzi lepiej a na tym gorzej.

Co do wyników w 3Dmarkach to nigdy nie przywiązywałem do nich wagi, zostawiając to maniakom, którzy za wszelką cenę chcą się pochwalić punkcikami, siedząć po nocach i szuflując różnymi wersjami sterowników, chłodzeniem i nowymi kartami.
Obrzydzeniem napawa specjalna optymalizacja sterowników pod benchmark, ale to właśnie taki typowy marketing, który niestety w naszych czasach ma najwięcej do powiedzenia w firmach - Wciśnijmy ludziom kłamstwo, oszukajmy ich a nawet utwierdźmy ich w przekonaniu że czarne jest białe i że kupując coś złego kupują dobre - byle by wzrosła sprzedaż (nie dziwne że nie lubie ludzi od marketingu)


A i jeszcze do ETPleja - kupno Gf 6600 nie zmusi cię do wymiany sprzętu jesli kupisz wersję na AGP.
RazoR
Nie dawno kupiłem kartę Galaxy GeForce 6600 GT i… muszę przyznać, że jak odpaliłem 3DMarka05 i było 3491 punktów to pomyślałem, że w ET będzie ze 300 fps i co??
Rozczarowanie:/ nie ma nawet stałego 125!!! Wcześniej miałem Sapphire Radeon 9600 atlantis (podkręcony ze 325/380 na 425/450)a na tym gf czsami spada poniżej 30…
Szczerze mówiąc żałuje, że go kupiłem wcześniej chciałem 9800 pro ale jak zobaczyłem te tytuły testów „pogromca” itp. Mam nadzieje, że to kwestia sterowników, bo jeśli nie to po co mi płynność w doomie skoro gram w ET!!?? Do tej gry to się ona nie nadaje….
Sir_Ace[PL]
Ja mam FX5200 i jakoś niezamierzam go wymienić. Kupilem niecałe 2 lata temu za 150 zł (nowy, na gwarancji). Od tego czasu wszystkie gry chodzą płynnie (nie na pełnych detelach, ale chodzą). HL2, Far Cry i inne (DOOMA 3 nie testowałem). Et też mi nie szarpie i głównie to się liczy biggrin.gif
Dante#
Ja mam FX5200 i jest to shit maxymalny jak najszybciej chce to zmienić i z tego co wiem nikt nie poleca Geforca zseri FX nikomu to jest seria do dupu zresztą wszystkie te FX titanumy i inne dodatki to chwyty marketingowe do tego przwyższają cenowo wydajniejsze radeony.
Zduneq
Chlopie nie kupuj fx'a 5200 jest to syf maxymalny.Ja mam radka 9100 i sprzet o podobnej konfiguracji wymiatam tego fx'a. biggrin.gif
Swiety, nie trzeba byc maniakiem zeby patrzec na ilosc punktow....Chyba kazedego oko cieszy jak zamiast pow. 7000 masz 9000 ptk. w 3dmarqu01(chyba najlepszy jaki wyszedl, w.g. a maniakiem nie jestem,jesli sie myle to mnie wyprowadzcie z bledu).
Estaloth, z czystej ciekawosci skad masz takie info??Tego w gazetachj raczej nie pisza(nie mowie tu o easypc czy o kump. swiat) tylko Chip i PCW.
Co do topicu komentarz kolesia do gf 52000:
"za ta cene i z obsluga direxa 9 u mnie w 3d marku se2003 karta ma ok 1200 pkt to bardzo dobry wynik trzeba tylko wziac poprawke ze byla testowan ana procku p4 2.8 i 2x512mb pc400 w grach takich jak unreal 3 przy maks detalach i rozdzielczosci 1024x768 ok 10klatek na sekunde nie ma sensu kupowac drozszej karty chyba ze ktos ma kasy jak lodu i moze pozwolic sobie na kupno karty ktorej cena przekracza 1000zl ocena jednak nie najwyzsza"
Jak to przeczytalem to malo nie spadlem z krzesla ze smiechu pod biurko.Otoz moj sprzet to D..1,6ghz@2,0ghz,256DDR,asrockk7s8xe+,radeon 9100 gpu 260/pamiec 220(fabrycznie 250/200) i wyciagnalem 1202ptk w 3dmarku03!!! biggrin.gif
Popatrzcie P4(procek z wyzej polki) 2,8ghz vs D(z nizszej)[ponoc gorszego AMD] 2,0ghz
Gf 5200 250/300 vs Radeon 9100 260/220
Ludzie gdzie tu K. WYDAJNOSC????
Fps'y w wolfie...hmmmm.Teraz mam zrabany system i potrafi rwac (ale rzadko) w 800x600 full detale(zaraz poleca wyzwiska n00b tongue.gif ).Ja "wyliczam" srednio 60fps...
Wiadomo ze w pomieszczeniach jest lepiej, nawet 90fps biggrin.gif ale tak srednio ok.60.
Na radarze z trawa gorzej huh.gif ok.35-40 niestety.
A zapomnialem dodac najwazniejszego,opis 5200 128MB(128 bit) i moj radek 9100 tez 128MB(128bit a moze 64??)
Swiety
Mam dostęp do wielu sprzętów ale w domowym zaciszu u mnie stoi Athlon 64 3000 (oczywiście podkręcony cooler Zalmana - pamięci Twinmos - prawie 500 Mhz !!) plus stary dobry GF4Ti Gainwarda. Przymierzałem się ostatnio do jakiegoś GF6800 na AGP ale w zeszłym roku w bardzo głupi sposób popsułem 2 Athlony XP (jednego w bardzo głupi sposób spaliłem drugiego uszkodziłem przy montażu coolera Zalmana) więc narazie zakup grafy odłożę i w sumie dobrze bo jak ATI zacznie odpowiadać na konkurencję Nvidii to ceny pójdą mocno w dół.
Nie chce kupować 6600GT ze względu na 128 bitową szynę danych.
W normalnych rozdzielczościach różnica pomiędzy 128 bit a 256 zwłaszcza przy szybkim taktowaniu pamięci jak np w 6600 GT jest żadna ale jak szaleć to szaleć - chciałbym sobie pograć w 1600x1200 anizo a tu właśnie przyda się wieksza szyna.

Tak jak napisałem stary dobry Gforce4Ti. Mam go już dość długo chociaż w międzyczasie zmieniałem inne podzespoły. Nie wymieniałem go gdyż jego wydajność w zupełności mi wystarcza (gram głównie w starsze gry np w Wolfa) a w noszych - co prawda w Doom III 1024x768 ultra high mogłob być więcej klatek ale da się grać. Do tego mój egzemplarz fenomenalnie się podkręca.
A to że np w 3Dmark 2003 trochę tnie np w Battle of Proxygon - no cóż do pełni szczęścią brakuje tylko obsługi DirectX 9 w Gforce4.
W powszechnej opinii karty serii GF4 były jednymi z najbardziej udanymi i właściwie Nvidia mogła rozwijać tą architekturę (np dodać DirectX 9).

A to że we wspomnianym 3Dmark03 jakiś FX wypadnie nawet lepiej od GF4 - ja mam stałe 125 fps w każdym miejscu w Wolfie - czego potrzeba więcej do szczęścia ? biggrin.gif

Oczywiście że 3Dmark2001 był najlepszym testem. W 3Dmark03 właściwie można zadać pytanie - gdzie te wspaniałe efekty DirectX 9 ? Przecież 3Dmark2001 wygląda lepiej od 03.

Mimo wszystko kupno nowej karty prędzej czy później bedzie nieuniknione.
Gdy pojawi się więcej gier sieciowych wykorzystujących efekty DirectX 9 np na engine HF2 czy D3 chcąc niechcąc trzeba będzie wpakować te tysiące złotych w nową grafę :/
Zduneq
Po 1 niezle musisz zarabiac zeby wlozyc 1tys. w grafe...Ja jak kupowalem swojego R9100 to jak rozstawalem sie z 560zl to mi troche zal bylo(ale matka placila biggrin.gif ) ale wiedzialem ze dostane grafike pozadna...I sie nie zawiodlem, przez 2 lata nie znalazlem gry kora by mi ciela(no moze oprocz lock on co ma wymagania prawie jak DIII).NIestety w DIII grac moge tylko w trybie 640x480(wyzej nie probowalem ale tu tez potrafi pozadnie zaciac).
CYTAT
Mam dostęp do wielu sprzętów ale w domowym zaciszu u mnie stoi Athlon 64 3000 (oczywiście podkręcony cooler Zalmana - pamięci Twinmos - prawie 500 Mhz !!) plus stary dobry GF4Ti Gainwarda

1 slowo co do ramu:WARIAT!!!!! I ty mowisz ze nie jestes maniakiem???Nie krzacza ci??Bo braciak jak podkrecil szyne 266 na 333 to co jakis czas lubil sie pokazac blue screen laugh.gif
Inny natomiast braciak(wariat jakich malo) mial GF(tylko numerka nie pamietam) 3 lub 4 4200Ti podkreconego tak ze przykleil do niego cooler(ale chyba tylko wiatrak,nie widzialem) do jakiegos cpu na kropelke!!!!!Wyciagal wtedy ok.12-13 tys. w 3dmarku01.Nie pamietam tez czy byl przyklejony do gpu czy pamieci.....Posiadal wtedy P4 mial krecone podajze na 3,4 albo 3,2.Orginalnie chyba 2,4 ghz,nie pamietam.I chyba nie posiadal wtedy jeszcze wodnego chlodzenia....
W czasie pisania tego postu doszla mnie wiadomosc ze papiez nie zyje unsure.gif
[*][*]
conish
Sorki, ale nie chce otwierac nowego topicu... Jak to jest z tym chlodzeniem ciecza?
Zduneq
Chlodzenie ciecza ma kilka zalet.Po 1 panuje CISZA w pokoju,uparci popmpe uslysza.Po 2 jezeli pomyslisz to mozesz chlodzic cpu,gpu,chipset i nawet zasilacz(tu kwestia odp. zasilacza).Chlodzenie wodne jest BEZPIECZNE pod warunkiem ze wlejesz do niego nie zwykla wode tylko wode destylowana(podobno nie przewodzi pradu i moze ci sie wylac do dzialajacego kompa i nic sie nie stanie)Ja jednak nie zamierzam eksperymentowac bo ciecz to ciecz a prad pradem biggrin.gif Wole wydac kase na zestaw wiatrakow 3 tys. obrotow i miec cisze i nie martwic sie o kompa.
Estaloth
Water Cooling [WC] (wodne chłodzenie) - LINK

Freon Cooling [FC] (chłodzenie freonem) - LINK

Nitrogen Cooling [NC] (chłodzenie azotem) - LINK

To powinno dać ogólny pogląd jak to wygląda. Dodam tylko ze dla zdecydowanej większości overclockerów chłodzenie powietrzem wystarczy, jesli jednak ceni się ciszę i niezły potencjał o/c to mozna pomyśleć nad WC co na pewno będzie rowniez dobrym rozwiązaniem. Chłodzenie freonem zdecydowanie ma wiekszy potencjał choć jest abstrakcyjne (uzupelnianie freonu), choć chłodzenie to oferuje temperatury grubo poniżej 0. Natomiast azotowe chłodzenie to czysta abstrakcja (choć najwydajniejsza) dla bicia rekordów (typu 5Ghz CPU, czy ponad 12000pkt w 3D Marku 2k5), ze wzgledu na b. szybkie parowanie azotu i niebezpieczenstwo dla zdrowia (trzeba b.dobrze wentylowac pomieszczenia, gdzie stosuje się to chłodzenie).

Dla ludzi ktorzy chca krecić swoj sprzet polecam np. Thermalright XP-90C (CPU) i Zalman VF700 (GFX). Sa to standardowe chlodzenia powietrzem, a wiec latwe w instalacji. Na dodatek wymienione wyżej modele sa jednymi z bardziej wydajnych przy nie wygórowanej cenie w stosunku do choćby porządnego zestawu WC nie mówiać juz o FC czy NC.

Co do chlodzenia wodnego, jest to dobre rozwiazanie dla osob lubiacych ciszę. Jednakże jesli ktos chce wydajnosc w WC i ustawi pompę na max to bedzie pracować ona z podobnym hałasem jak chlodzenie powietrzem.
southorn
Zdunek, coś kiepsko z wiedzą u Ciebie (i z praktyką) biggrin.gif

1. 3Dmark01 jest MOCNO zależny od procesora. Na wynik końcowy ma duży wpływ szybkość RAM-u i właśnie procesora. Przykład: mam A64 (1800Mhz) i robię ok. 12700pkt, przy 2500Mhz to już 14200pkt (karta w obu przypadkach bez zmian).

2. 3Dmark03 i 05 natomiast całkowicie odwrotnie, procesor ma mniejszy wpływ (co nie znaczy, że niewielki). Przykład: 1800Mhz - 4000pkt, 2500Mhz - 4100pkt. Jest pewien moment w którym moc zostaje wykorzystana (u mnie ok. 1200Mhz, sprawdzałem) i dalej już wpływ jest mały i nie proporcjonalny do wzrostu taktowania.
Duża tu zasługa shader-ów i mozliwości układu graficznego karty, to jest testowane najbardziej.

3. Święty mając pamięć na 500Mhz miał na myśli dobre, podkreślam dobre pamięci które fabrycznie chodzą powyżej 200Mhz (w jego przypadku ok. 250Mhz czyli DDR500) oficjalna specyfikacja kończy się na DDR400 dalej to możliwości kostek poszczególnych producentów (zresztą 500 to wcale nie taka rewelacja, powyżej DDR600 też da radę, np. A-DATA Vitesta na Samsung-ach TCCD wink.gif, dochodzi sprawa timing-ów itd.)
U Twojego brata natomiast po podwyższeniu z DDR266 (czyli 133Mhz) na DDR333 (166Mhz) wywalała się prawdopodobnie kiepska pamięć. Wystarczyło zamontować choćby najtańsze DDR400 i sprawa załatwiona (chyba, że procesor nie wyrabiał)

4. Ta historia z klejeniem na kropelkę jest odrobinę niespójna. Zakręciłeś nieco...
Owszem przykleja się (jeśli nie ma pod ręką kleju termoprzewodzącego) na kropelkę radiatory do układów: pod radiator normalna pasta a na rogi minimalnie klej i gotowe, można oderwac w razie czego i nie ma w tym nic nadzwyczajnego. Natomiast jeśli przykleił cały radiator do układu kropelką to gratuluję biggrin.gif

5. Wentylatory 3000 obrotów nie są ciche, zapewniam Cię. A woda destylowana faktycznie nie przewodzi prądu więc jest teoretycznie bezpieczna z tym, że obecnie powszechnie sprzedaje się wodę DEMINERALIZOWANĄ a to nieco inna sprawa.

Pozdrawiam.
Zduneq
CYTAT
Zdunek, coś kiepsko z wiedzą u Ciebie (i z praktyką)

Z wiedza to sie nie zgodza a z praktyka,no coz....Jak sie nie pracuje to sie nie chce ryzykowac sprzetu bo niewiadomo czy starzy kupia cos nowego czy nie dry.gif (i trzeba miec troszke w glowie inaczej klepiki poukladane zeby wyciskac 7-me poty ze sprzetu,np do ramu wogole sie nie dotykam,z grafa ostroznie ale z procekiem ile sie tylko da!! biggrin.gif)
CYTAT
3Dmark01...... i 3Dmark03 i 05.......

Pisalem ze TAK MI SIE WYFDAJE i ze jezeli jestem w bledzie to WYPROWADZCIE MNIE Z TEGO BLEDU za co DZIEKUJE biggrin.gif
CYTAT
AD 3.....

Co by nie bylo miazdze Gf5200 swoim radkiem 9100 biggrin.gif biggrin.gif
Co do ramu to on sobie "podkrecil" w biosie.Jak mu te "podkrecenie" wylaczylem to juz przestalo mu wywalac, wiec jakas wiedze mam tongue.gif tongue.gif(proc powinien miec taka sam szyne jak ram athlon na 266).
CYTAT
Historia z klejem....

Zakrecilem bo jestem zakrecony tongue.gif tongue.gif A teraz powaznie.Staralem sie przyblizyc sytuacje,ale rozmowa z bratem na temat tego co on zrobil z grafika miala 2-3 lata w stecz i za duzo nie pamietam....Podkreslilem tez ze NIGDY TEGO NIE WIDZIALEM totez ma duze znaczenie(d#@ek pokazac nie chcial dry.gif )Pozostaje wierzyc lub nie mi na slowo wybor pozostawiam czytelnikom.
CYTAT
5. Wentylatory 3000 obrotów nie są ciche, zapewniam Cię.

Wiesz dlaczego nie sa dla Ciebie ciche??Bo nie slyszales moich 5000!!!J. tak warczy,ze na noc(ach te dc++) zakrywam go szlafrokiem,na allegro kupilem korkowe maty wyciszajace(glupota,cos tam daja ale nie tyle ile myslalem) i wylozylem nimi boki kompa lacznie z "dzurkami" w obudowie.
Glosny jest ale chlodzic potrafi,w momencie pisania tego posta mam 37C na D 2,0ghz.ALe wczesniej jak mialem athlona 2100(1,73ghz) to w upalne lato,w najgoretszym pokoju w domu(najmniejszy i od strony wschodu slonca) kiedy stal przy grzejniku(czyli mala mozliwosc wymiany powietrza,a nie dlatego ze w lato pale w piecu) mialem ok.57C(w stresie).Owszem zdazaly mu sie "wpadki" i przekraczal 60C,ale jak WIEM(Ad1 tongue.gif tongue.gif)AMD prcuje bez rzadnych problemow do ok. 90C
Pozdro
besti
Radzę się pozbyć tego FX 5200, to nie jest karta stworzona do gier ale dla biur, można ją nawet dobrze sprzedać na aukcji w zalezności od firmy. Osobiście posiadam ATI 9600XT i jestem zadowolony, kupiłem ją razem z firmowym heatpipe, dlatego mam calkowitą ciszę na komputerze, przy tym naprawdę porządne osiągi. W ET na winxp na żadnej mapie nie mam poniżej 80 FPS przy moich ustawieniach. Jeżeli ktoś ma mało kasy to może z czystym sumieniem kupić radka 9600 pro lub xt.
Swiety
CYTAT (conish @ 23:01, 2 04 2005)
Sorki, ale nie chce otwierac nowego topicu... Jak to jest z tym chlodzeniem ciecza?

Chłodzenie cieczą jest dość ryzykowne. Nie tylko z powodu groźby ewentualnego przecieku.
Chłodzenie cieczą ma to do siebie, że na różych metalowych częściach kondensuje się para wodna i co nieco może nam kapnąć na karty rozszerzeń. Obowiązkowo stosować wyłącznie plastikowe przewody.

O ile w przypadku zwykłego chłodzenia wodą to nie jest zbyt duży problem to już w przypadku takich extremizmów jak chłodzenie ciekłym azotem już jest biggrin.gif.

Wodę destylowaną można kupić w jakimś sklepie motoryzacyjnym albo ... zebrać wodę jaka ścieka na dole zbiornika podczas pracy lodówki - to też jest woda destylowana biggrin.gif

Jednak nawet najdroższe chłodzenie powietrzne (np Zalman czy Pentagram Freezone) jest dużo tańsze od najtańszego chłodzenia cieczą (pomijam tu takie wynalazki jak np stara chłodnica z Fiata 125p podłączona do komputera biggrin.gif ) a zysk jest niewielki. Poprostu stosunek ceny/wydajności jest lepszy dla chłodzenia powietrznego renomowanych firm.

Więc chłodzenie cieczą pozostawiamy tylko maniakom wydajnośći za wszelką cenę chcących wycisnąć ostatni Mhz z kompa i maniakom ciszy, chociaż ostatnio w przypadku chłodzenia powietrznego widać duże postępy. ponadto możliwość regulacji obrotów i programowe zmniejszanie częstotliwości podczas trybu idle w przypadku najnowszych procesorów (np AMD Cool'n'Quiet) i kartach graficznych.


Warto wspomnieć jeszcze o ostatnio modnej technologi heat-pipe (czyli rur cieplnych). Są to nic innego jak radiatory wypełnione specjalną cieczą wrzącą w niskiej temperaturze. Często na takich radiatorach nie ma potrzeby instalować wentylatorów, chociaż bez wentylatora heat-pipe raczej nie bedzie miał niskiej temperatury. Również nie ma ryzyka wycieku (chyba że ktoś zrobi dziurę wiertarką) a wadą jest oczywiście podobnie jak w przypadku chłodzenia wodnego cena.


CYTAT (Zduneq)

1 slowo co do ramu:WARIAT!!!!! I ty mowisz ze nie jestes maniakiem???Nie krzacza ci??Bo braciak jak podkrecil szyne 266 na 333 to co jakis czas lubil sie pokazac blue screen laugh.gif


Wcale nie jestem maniakiem sprzętu komputerowego. Gdybym nim był to już dawno miałbym w kompie PIV EE lub Athlona FX i GF6800 Ultra (najlepiej dwie w trybie SLI).
Chyba trudno nazwać maniactwem że zamiast kupować pierwszy lepszy moduł 512 DDR RAM PC400 poprostu dołożyłem kilkadziesiąt złotych i kupiłem dobrą pamięć tym samym
1) Oszczedzając sobie niebieskich ekranów, tajemniczych zwisów typowych dla tanich noname które nawet jako oznaczone PC400 ledwo potrafią pracować jako PC333 biggrin.gif
2) Zyskując mozliwość overclockingu i tym samym mieć większą wydajność za free, więc w sumie płacąć więcej zaoszczędzam i kasy i nerwów.
Gdyby pamięci się krzaczyły to poprostu ustawia się mniejszą częstotliwość i większe timingi - simple.

W swoim życiu (a żyje już prawie 30 lat z tego blisko 15 lat z komputerami PC)
może dwa czy trzy razy zaszalałem kupująć kartę graficzną za ponad 1000 zł.
Ponieważ dość długo pracowałem w firmach dystrybujących sprzęt PC zawsze człowieka kusiło żeby kupić nowość i można było kupić trochę taniej niż w sklepach
Pierwszy raz to było w przypadku Voodoo, poprostu to trzeba było mieć. gry z akceleracją i bez akceleracji wyglądały jak dzień do nocy. To był wtedy wielki przełom, każdy kto wcześniej np grał w Quakea na software a póżniej zobaczył go na OpenGL to opadała mu szczęka.
Kupująć pierwszego GForce - to też był przełom nie tak wielki jak w przypadku pierwszych akceleratorów, ale warto było kupić kartę z obsługą T&L chcoiaż początkowo gier które to wykorzystywały nie było (ta plaga jest do tej pory - zawsze jak się pojawi jakiś nowy chip to gry które to zaczną wykorzystywać pojawiają się za 2 lata - chip tanieje 4 razy i się staje przestarzały - trzeba kupić nowy i sytuacja się powtarza biggrin.gif )
Poza tym karty graficzne często zmieniałem (jak chyba większość) ale rzadko wydawałem na nie więcej niż 500 zł. Ostatnio ponieważ właściwie już w nic nie gram (w swoim życiu już się nagrałem) a jak już gram to raczej w starsze pozycje (np w Wolfa) to już niepotrzebuje jakieś nowej ultra szybkiej grafiki.
Ale mój aktualny Gforce IV chociaż stary ale jary i nadal wydajny to już jest kartę spzed lat a to w przypadku kart graficznych cała wieczność więc prędzej czy później trzeba bedzie go wymienić.
Narazię obserwuję ceny GF6800, czkeam też na odpowiedź konkurencji ATI co niewątpliwie powinno ceny zbić w dół.


CYTAT (besti)

Radzę się pozbyć tego FX 5200, to nie jest karta stworzona do gier ale dla biur, można ją nawet dobrze sprzedać na aukcji w zalezności od firmy

Szkoda że ludzie nadal się nadziewają na ten shit. Na pudełku naklejka DirectX 9 support, 128 MB RAM a jak się odpala nową grę to 5 fps.
No ale cóż - taki jest wszechobecny marketing firm że ludzi trzeba oszukać i wcisnąć im kit, żeby tylko zgarnąc kasę (co prawda małą w przypadku FX5200 ale zawsze). Zero jakiejś moralności.
Na c@#! mi karta z 128 MB pamięci i supportem DX 9 jak mi wszystko tnie ?

Ale to jest żerowanie na niewiedzy ludzi bo przecież ponad 90% prywatnych użytkowników kupujących nowy sprzęt nie zna się na nim.
FX5200 kupimy za 200 zł. GF6800 kupimy za 1200 zł. Obydwie karty mają po 128MB RAM i support DirectX9 i to jest właśnie przede wszystkim podkreślane w reklamach. Czy widzieliście reklame zestawów komputerowych że dana karta osiąga tyle i tyle punktów w 3d mark lub klatek/s w jakiejś grze ??? Ja nie widziałem.
Tak więc w reklamach 6800 i FX5200 dla laików (czyli dla większości) to w sumie karty podobne. Różnica 1000 zł więc po co przepłacać, dopiero jak w domu klient odpala grę ma 10 razy mniejszą wydajność.
Może przykład z 6800 jest drastyczny bo to droga high-endowa karta ale weżmy np GF6600 czy Radeona 9800 lub 9600 PRO.

Podobnie ma się sprawa z zasilaczami. Jest to jeden z najbardziej niedocenianych elementów komputera. Ci co bardziej obeznani wiedzą że mają zasilacz i ile ma wat a tymczasem różnice są kolosalne zarówno w stabilności pracy kompa nie mówiać już o paleniu płyt głownych i reszty podzespołów przez tanie zasilacze.
Jakiś shit za 50 zł i Chieftec za 250 zł - obydwa mają tę samą moc (co jest podawane w reklamach) różnica 200 zł więc po co przepłacać.

Wracając do kart graficznych dopóki bedzie rynek na tanie karty graficzne zawsze tutaj będą przekręty. A że tanie karty to większość rynku to tak będzie.
W końcu nie każdego stać na wydanie ponad 500 zł (bo od takiej sumy zaczynają się porządne grafiki). Będzie się mydlić oczy bajerami, ukrywając faktyczną wydajność.

Nie od dziś wiadomo że gdy wchodzi nowa generacja chipów graficznych napoczątku pojawiają się potwory za kosmiczne pieniądze, których mozliwości będa wykorzystane dopiero za parę lat (kto to wogóle kupuje ? ).
Później trzeba coś zrobić z rynkiem tanich kart graficznych więc bierze się taki nowy chip okraja się z niego co tylko się da lub o zgrozo bierze chip poprzedniej generacji, ewentualnie dodaje kilka bajerów ładnie wyglądających w reklamach i sprzedaje się jako nowość.
Często brakuje tego złotego środka. Przeglądając ofertę sklepów widzi się najczęsciej albo high-endowe karty za kolosalne pieniądze (wydawanie 5 razy więcej żeby mieć wydajność 2 razy większą czyli jak wycisnąć kasę od klientów) pózniej długo długo nic i tanie shitowe karty które co prawda oferują efekty jakie mają te karty high-endowe ale wydajnośc mają 50 razy mniejszą za 10 razy mniejszą cenę.
Brakuje w reklamach i marketingu tego złotego śrdoka - kart rozsądnych.
Często również te karty rozsądne ale starszej generacji są wycofywane szybko z rynku tylko dlatego ... że są stare. W zamian serwuje się "nowość" która jest mniej wydajna od tych starszych rozsądnych kart (jak np FX5200).

Wystarczy przypomnieć GF4 MX który defacto był GF2 no ale z tą "czwóreczką"przedawany
Nasz tytułowy FX5200. Na c@#! mi 128 MB RAM jak mam 64-bitową szynę danych.
Nawet ponoć były takie mutanty jak FX5200 z 256 RAM ale za sprzedaż i produkcję takich kart powinno się siedzieć.
Lepiej kupić używanego GF3Ti. Wyjdzie tak samo lub taniej a wydajność wyższa, co prawda nie obsługuje DirectX 9 i ma "tylko" 64 MB RAM ale na c@#! mi więcej w karcie poniżej 200 zł ?
Ostatni wynalazek to GF6200 Turbo Cache. Nie od dziś wiadomo że podstawowym
czynnikiem decydującym o wydajności karty graficznej jest szybkość tej pamięci na karcie. Nie trzeba mówić że przepychanie tekstur przez złącze AGP czy PCI-E zawsze będzie wolniejsze niż z pamięci karty.
Na ale cóż w reklamach pewnie się będzie pojawiać że karta ma 256 MB RAM pamięci systemowej i pan Zenek czy Józek kupujący nowy komputer dla syna żeby się uczył (gówno się uczył przede wszystkim będzie chciał grać) zobaczy że jest tanie i praktycznie "to samo" i kupi prowizorkę.

Pada argument że te tanie karty to przede wszystkim dla komputerów biurowych i często tak właśnie jest. Tylko po co mi w Wordzie czy Excelu 128 MB RAM i obsługa DirectX 9 ? Równie dobrze działałby tu jakaś powiedzmy TNT Vanta 16 MB.


CYTAT (Southorn)

1. 3Dmark01 jest MOCNO zależny od procesora. Na wynik końcowy ma duży wpływ szybkość RAM-u i właśnie procesora. Przykład: mam A64 (1800Mhz) i robię ok. 12700pkt, przy 2500Mhz to już 14200pkt (karta w obu przypadkach bez zmian).

2. 3Dmark03 i 05 natomiast całkowicie odwrotnie, procesor ma mniejszy wpływ (co nie znaczy, że niewielki). Przykład: 1800Mhz - 4000pkt, 2500Mhz - 4100pkt. Jest pewien moment w którym moc zostaje wykorzystana (u mnie ok. 1200Mhz, sprawdzałem) i dalej już wpływ jest mały i nie proporcjonalny do wzrostu taktowania.
Duża tu zasługa shader-ów i mozliwości układu graficznego karty, to jest testowane najbardziej.


W twoim w przypadku za prawie 40% wyższy procek wydajność skoczyła niewiele ponad 10 % - dla mnie to nie jest duża zależność od procesora chyba że przyjmiemy że 3DMark ma za zadanie zmierzyć wyłącznie wydajność karty bez żadnego względu na to co innego siedzi w kompie, a przecież wiadomo że GPU nie może pracować bez CPU, co też nie pozostaje bez wpływu na wydajność tego pierwszego.
Również nawet aplikacje które w pełni wykorzystują moc najnowszych chipów graficznych do minimum zrzucając robotę na procesor (gwoli ścisłości to w przypadku chipa graficznego to o jego sterownikach oraz środowisku OpenGL czy DirectX możemy mówić o zalezności od procesora a nie samej aplikacji) w szerokim zakresie częstotliwości procesora prezentują podobne osiągi ale zawsze mają jakieś minimum procesora po którym wydajność gwałtowni spada. W teorii karta nie powinna być zależna od procesora w praktyce jest zwłaszcza kiedy jest to słaby procesor


Zresztą tą dużą zależność od procka widać w każdej starszej aplikacji od wspomnianego 3dmark01 po naszego Wolfa, który nie w pełni korzysta nawet z T&L nie wspominając o DX9 i siłą rzeczy zależy dużo od procka.


Natomiast wyższe 3dmarki wykorzystując jeszcze bardziej możliwości najnowszych kart (shadery) oczywiście że będą mniej zależne od procka.

Wracając jeszcze do 3dmark03 i jego shaderów. Odpalając na swoim sprzęcie (GF4Ti) dema battle of proxycon i trolls cięły niesamowicie i myślałęm że będą nici z grania w DoomIII dopoki nie kupie nowszej karty. Jednak okazało się że i mam dużo klatek i jakoś również brzydo to to nie wygląda.
Sam 3Dmark03 jest dość brzydki i tnie niesamowicie.
Gier wykorzystujących dobrodziejstwa DirectX 9 jak na lekarstwo a zanim pojawi się ich więcej to te wszystkie GF6800 będą już złomem kilkakrotnie tańszym.
Tu pojawia się problem optymalizacji oprogramowania. Weźmy naprzykład HF2 i realistyczne odbicia w wodzie (DirectX 9 się kłania) i to wszystko tnie się na GF Fx-ach. Ktoś kiedyś podczas dyskusji o optymalizacji softu na jednym z serwisów sprzętowych zauważył że np ładne odbicia wodne mieliśmy już w 3dmark2000 (scena pod koniec dema) i to nawet bez Directx8 i wszystko chodziło płynnie.
Zduneq
Swiety>@LL
ja sie przekonalem do drozszych grafik jak kupilem tego kompa.Radek9100(128mb ramu) 2 lata temu, nic na full detalach w 1024x768 nie mialo prawa sie przyciac i nic sie nie przycielo.Wczesniej ojczulek mnie wyreczal w wybieraniu sprzetu bo to byly jego pc'ty...Udalo mu sie nawet raz wybrac 1 dobra karte matroxa(nie pamietam jakiego) ale mial 8mb pamieci(LOL) to byl wtedy przecinak biggrin.gif:D
Moj radeonik nie kosztowal malo bo chyba 560zl 128mb ramu ale bez obslugi Dx9:/Do czasu,az nie wyszly lepsiejsze stery i jakos zaczelo obslugiwac, z opengl nie bylo problemow(tzn. obslugoje calkiem niezle).Niestety najwieksza kula u nogi mojego pc jest nieszczesny duron......gdzie mu do athlona 1,7:(Na athlonie bez rzadnego krecenia mialem w 3dmarku01 7224 punkty, tu z kreceniem grafy i procka ledwo przekroczylem 7 tys.sad.gif
Kwestia zasilacza....hmmm,nigdy do niego jakiejs wiekszej wagi nie przywiazywalem,ale ten "orginalny" zasialacz pieprzyl mi sie od samego poczatku a dokladnie napiecie.DO plytki asusa mialem dolaczonego Asus Prob'a(taki fajny programik do nadzoru temp.,ilosci obrotow wiatrakow i napiecia) i lubil mi "wyskakiwac" szczegolnie w et dry.gif (nie pamietam jakie to bylo napiecie, i nie wiem do czego,ale z mojego zrodla inf. dowiedzialem sie ze chyba to chodzilo o CPU).Po 2 latach uzytkowania mam takie fajne akcje, restartuje kompa i chce nagrac cd.Okazuje sie ze nie ma nagrywarki!!!A czemu??bo zasilanie nie styka mad.gif Kumel przychodzi z dyskiem i co?Kombinowanie zeby byly oba hdd i nagrywarka ale roznie to bywa.Ale najbardziej wkurzylem sie kiedy to ja poszedlem z dyskiem do braciaka.20 min. nie moglem podlaczyc swojego dysku mad.gif k#!@ilem rowno,jak sie potem okazalo nie trafilem dobrze tasma i wygialem kilka stykow ale nie zaskoczyl odrazu...oczywiscie zasilanie musialo mnie dobic.....
Swiety jezeli ty tyle siedziales w sprzecie to powiedz mi czy dobrym wyborem jest kupienie tego zasialacza i kupienie tego chlodzenia??
Swiety
Sprzętem zajmowałem się kiedyś teraz już w tym nie siedzę. Najlepiej czytać fora serwisów technicznych i komentarze. Jak widać w przypadku zasilaczy Chiefteca i coolerów Gigabyte są one z reguły bardzo pochlebne.

Co do coolerów Gigabyte to ja nie miałem z nimi styczności, gdyż z reguły miałem styczność z Zalmanami i Pentagramami Freezone które defacto są kopią tych pierwszych.
Nie wiem jaki mają system mocowania do socket A ale wiem że to ponad pół kilo miedzi a w przypadku Zalmana czy Pentagrama bardzo łatwo uszkodzić procek pod socket A (ukruszyć - co sam doświadczyłem)
Mogę tylko powiedzieć że coolery Gigabyte są ... bardzo ładne i świecą róznokolorowymi diodami biggrin.gif.
Napewno po kupnie tego coolera bedziesz mógł się pokusić o lepszy overclcoking swojego procka.


http://www.benchmark.pl/artykuly/testy/zas...2/strona-1.html - Tu masz giga test zasilaczy komputerowych na benchmark.pl dodatkowo często updejtowany o nowe modele w tym i model który zapodałeś.

Jeśli chodzi o zasilanie to w sumie nie wiem czy do starszych sprzętów jest sens kupować dobry zasilacz, no chyba że planujemy go zostawienie sobie pod przyszłą nową maszynę.
Napewno dobry mocny zasilacz gdy kupujemy nowy wydajny sprzęt. Współczene podzespoły komputera biorą coraz więcej prądu i jednoczęsnie pracują z coraz niższymi napięciami co wymaga bardzo wydajnych i bardzo dobrych zasilaczy trzymających idealnie napięcia. Kupowanie najnowszego PIV czy Athlon plus najnowszy Gforce czy ATI i wydawanie na to cięzkich tysięcy wraz z jakimś shitowym zasilaczem i oszczędzeniu paru złotych to profanacja, proszenie się o darmowe zwisy a wnajgorszym przypadku spalenie kompa.

Jak sam zauważyłeś podczas grania w ET skaczą ci napięcia. Uruchamiając grę która wyciska z procka i grafiki siódme poty powdujemy jednocześnie zwiększone zapotrzebowanie na prąd o wiele większe niż w przypadku pisania czegoś w wordzie czy oglądania stron www.
Każdy zasilacz pod zwiększonym obciązeniem będzie miał odchylenia bo taka jest cecha zasilaczy. Tylko ten dobry bedzie miał je minimalne a ten shitowy przekroczy normy a wahania napięć przekładają się na zwisy albo nawet na spalenie co nieco.
W twoim przypadku gdy masz w sumie starego Durona i Radeona 9100 o ile te wahania są w normie i nie przekładają się na zwisy itd to jak narazie radziłbym się wstrzymać do czasu kupna nowego kompa lub podzespołów chyba że masz do wydania te ponad 200 zł

southorn
Swięty, otóż miałem na myśli, że testując kartę graf. 3Dmarkiem01 na dwóch różnych systemach uzyskamy różne wyniki ponieważ udział procesora jest większy niż w 3Dmarku03 i 05. Tam mierzy się przedewszystkim wydajność karty a na systemach różniących się (np. o umowne 800Mhz) wynik będzie zbliżony (zakładając, że mamy min. 1.5Ghz).

Chodziło o to, że obecnie nie ma sensu porównywać wyników 3Dm01 z różych komputerów celem określenia wydajności samej karty graf. bo można ten wynik naciągnąć lepszym procesorem a 3Dm03 i 05 daje jaśniejsze pojęcie o wydajności układów grafiki (a po to właśnie są te testy)

Moje dane miały na celu zobrazować te zależności.

Inna sprawa, że moc procesora przydaje się np. w HL2. Fizyka, światła, cienie, zachowanie "bohaterów" to liczy CPU i im szybciej to zrobi tym więcej zostanie dla obliczeń graficznych (które póki, co jeszcze wymagają co nie co procesora). U mnie zmiana z 1800Mhz do 2500Mhz była znacząca w HL2 (wzrost od 10 do 20fps).

Pozdr.
Zduneq
Widza ze "normalnie" nie dociera(ale wcale sie niedziwie biggrin.gif ).Musze opowiedziec "swoja" historie moze wtedy wiekszosc postow zostanie zrozumialych.
Wszystko zaczelo sie w marcu 03,bla bla bla i oto cala moja historia laugh.gif
Kupilem kompa:asus a7s333,athlon 1,7ghz(w 0,18 dry.gif ,juz 3 miesiace pozniej byly w 0,13 sad.gif ),ramu 256 jakis elixir(to sa no name jeszcze???czy juz nie??do kingstonow jakos osobiscie nie moge sie przekonac bo za duzo slyszalem o nich zlego...glownie to ze lubia nie pracowac/albo pracuja nie tak jak powinny z duza iloscia plyt glownych, a ja wole nie ryzykowac),dysk seagate baracuda bodajze 7 60 gb,i moje male cudenko r91000(!@#any taki wielki(dlugi) jest ze sa problemy z wkaldaniem dysku!! biggrin.gif laugh.gif .O klawce,myszcze(zestaw A4teach'a,bez kabli,cudowna sprawa,tylko ze 400 dpi ma myszka dry.gif ) i monitor LG F700B(przyblize plaski i cezki jak cholera) biggrin.gif
A zapomnialbym o mojeje sexi podkladce pod mysz...jak ktos chce to moge zrobic foto i na maila przeslac smile.gif i buda i zasilacz(tez zestaw)
To byla pierwotna konfiguracja sprzetu....niestety moja "prawdziwa" natura odezwala sie i przy tym kompie....GRZEBANIE.Skonczylo sie na spalonym procu kiedy to przyszzedl do mnie siostrzeniec z kompem bo mu cos nie dzialalo i wszystko bylo ok tylko cos mi jego proc nie pasowal.Debil(za mnie) wtedy byl bo nie pomyslalem nad tym ze jego plyta moze palic proce......I palila padlo na mojego Athlona blink.gif
C@#! mnie strzelil.Potem kabinacje,mantyki pozyczanie cpu zeby starzy sie nie dowiedzieli i zeby uzbierac/zarobic na cpu.I tak jechalem na pozyczonym cpu do dnia kiedy padl net..Jak to ja zaczalem grzebac, wczesniej tez mialem taki problem i rozwiazalo go przelozenie karty siecuiwej.Tym razem tez pomoglo.Tylko kiedy komp sie wlaczal ja przykrecalem srobke i ta srobka spadla na plyte glowna a ja zachowalem sie jak debil, inaczej tego nazwac nie mozna jak wyciaganie srobki przy dzialajacym kompie SRUBOKRETEM!!!!!I poszlo pare iskierek.....
I tak pozbylem sie plyty glownej.Od tego czasu zaczal sie ponad roczny okres prohibicji na komp.Oczywiscie krecenie walkow na starych proba zebrania pieniedzy na plyte...Niestety wszystko konczy sie fiaskiem unsure.gif
I przezucilem sie na D i na asrocka(pomimo ze tani sprawuje mi sie calkiem niezle) i nie wiez w to ze tania plyta nie moze byc dobra,jest b. stabilna,ma bogate wyposazenie(czepiaja sie dzwieku ze kiepski,ale ja wymagajacy nie jestem i mi wystarcza)Mozliwosci krecenia tez sa niezle.
Do sedna sprawy.Zasilacz chce kupic dlatego ze zamierzam zmienic tez proca i mam dosyc problemow z zasilaniem nagrywarki/hdd.Malymi kroczkami chce ulepszac tego kompa w miare mozliwosci finansowych i technicznytch.Wachania napiecia wykraczala po za ta norme poniewaz Asus probe nie komunikowal(czyt. wywalal) sie na pol ekranu przy innych wachaniach jakie napewno byly czyli mial jakas tolerancje.Jezeli masz plyte asusa szczerze polecam programik chociazby dla samego przetestowania.Po za tym potrzeboje wiekszej ilosci mocy bo mam plany co do wiatrakow do obodow a co za tym idzie pobor mocy jest wiekszy.
Wracajac do napiecia...Wywalalo mi w wolfie bo w nic innego praktycznie nie gralem, wtedy wolf przezywal swoj rozkwit.Pamietam ze jeszcze gralem w q3,tam tego problemu nie bylo.
Pozdro
nephit
Witam, jestem szczesliwym posiadaczem fx5200 blink.gif
Od niedawna zaczalem sie przymierzac do wymiany karty jednak zakup planowalem dopiero za jakis czas - na 18nastke czyli za niecale pol roku. Myslalem o kupnie karty za jakies 700zl. Z tego co widzialem na stronach to grafy z tego przedzialu maja AGPx8. Niestety moja plyta glowna P4PE-X ( link ) ma AGPx4. Moje pytania - czy ktos moglby w skrocie powiedziec co to jest AGP oraz czy bede mogl uzywac karty z AGPx8 a jezeli tak to czy bedzie to duze marnotrawstwo wydajnosci.
Swiety
AGP - Accelerated Graphics Port - port przeznaczony dla kart graficznych.
Inaczej złącze na płycie głównej w która wkłada się kartę.
Poraz pierwszy pojawił się w płytach z chipsetem Intel LX pod PII.

Wraz z rozwojem kart graficznych przepustowość szyny PCI ( 132 MB) przestała wystarczać dla nowych kart graficznych. Dodtakowo szyna PCI jest dzielona pomiędzy wiele urządzeń co jeszcze bardziej obniża jej efektywną przepustowość.
Dlatego pomysł AGP - dedykowanego złącza dla kart graficznych, szybszego od PCI plus dodatkowo karta graficzna AGP może wykorzystywać bezpośrednio pamięć RAM komputera.

Coraz bardziej rozbudowane gry wymagały coraz większej ilości szczegółowych i dużych tekstur. Oczywiście karta graficzna ma swoją własną pamięć. Pamięc ta jest z reguły bardzo szybką pamięcią ale rzadko kiedy jej wystarcza na przechowywanie wszystkich tekstur.
Np Doom III w trybie ultra high quality operuje ponad 0,5 GB tekstur !
Więc dzięki AGP karta graficzna może w miarę szybko i bezpośrednio pobierać tekstury z pamięci operacyjnej i nimi operować.
Oczywiście jest to wolniejsze od pobierania tekstur bezpośrednio z szybkiej pamięci karty (w najdroższych modelach przepustowość pamięci przekracza 20 GB a przepustowość najszybszego AGP to ledwo 1 GB), tylko że szybka pamięć kart graficznych jest z reguły bardzo droga i poprostu z przyczyn ekonomicznych nie produkuje się na masowy rynek kart np z 1 GB pamięci biggrin.gif.

AGP występuje w wersjach x1 x2 x4 x8, różniącymi się częstotliwościami taktowania (AGP 1x 66 Mhz, szyna PCI to taktowanie 33 Mhz) i tym samym różną szybkością.
Na płycie z AGP x8 powinny chodzić nie tylko karty agpx8 ale wszystkie wcześniejsze (x4 x2).
Natomiast nie na każdej płycie obsługującej max AGPx4 pójdą karty z wyższym AGP (x8).
Również karty AGPx2 i np AGPX4 i AGPx8 różnią się troche złączem ale fizycznie wszystko pasuje do każdego portu AGP na płycie tylko że ...
O ile się nie mylę różnicą pomiędzy AGPx4 i AGPx8 są wykorzystywane napięcia co powoduje że nie na każdej starszej płycie głównej AGPx4 da się odpalić kartę AGPx8 (wszadzić jak najbardziej się da)

Podany przez ciebie Asus w specyfikacji zapewnia tylko APGX4. Mówisz że masz FX5200 a to przecież karta ... AGPx8. Więc skoro ona chodzi to chyba powinny chodzić inne karty, mimo wszystko lepiej przed zakupem nowej karty upewnić się (sprawdzić).
Jeśli okaże się że nie możesz jednak odpalić karty AGPx8 pozostaje ci kupno conajwyżej używanej karty typu Gforce4 lub ATI Radeon 9100. W obydwu przypadkach (zwłaszcza wyższych modeli Gforce4) wydajność będzie wyższa niż FX5200. Zresztą nawet jak wcześniej było napisane Gforce3 jest wydajniejszy od FX5200.
Tylko że te karty w przeciwieństwie do FX5200 nie obsługują DirectX 9, ale jak też było wczęsniej pisane "na c@#! mi DirectX 9 w takim szajsie jak FX5200"

Swiety
CYTAT (RazoR @ 8:59, 26 03 2005)
Nie dawno kupiłem kartę Galaxy GeForce 6600 GT i… muszę przyznać, że jak odpaliłem 3DMarka05 i było 3491 punktów to pomyślałem, że w ET będzie ze 300 fps i co??
Rozczarowanie:/ nie ma nawet stałego 125!!! Wcześniej miałem Sapphire Radeon 9600 atlantis (podkręcony ze 325/380 na 425/450)a na tym gf czsami spada poniżej 30…
Szczerze mówiąc żałuje, że go kupiłem wcześniej chciałem 9800 pro ale jak zobaczyłem te tytuły testów „pogromca” itp. Mam nadzieje, że to kwestia sterowników, bo jeśli nie to po co mi płynność w doomie skoro gram w ET!!?? Do tej gry to się ona nie nadaje….

Od niedawna stałem się częściowo szczęśliwym posiadaczem Geforce 6800 GT.
Cześciowo bo z karty jestem jak najbardziej zadowolony tylko że takie Gforce kosztuje prawie 2000 zł udało mu się kupić taniej co nie zmienia faktu że wydałem grubo ponad 1000 zł.

Mój sprzęt to aktualnie Athlon 3000 s 754 podkręcony o 20 %. Płyta Gigabyte Nforce3, 1 GB Ram Twinmosa. Poprzednia karta graficzna to Gforce4Ti 4600 która przez wiele lat mi dobrze służyła i byłem z niej nawet do teraz zadowolony. Jednak wraz wyjściem DoomIII i planowanego wysypowi gier na tym engine, prawdodpodobieństwu że następcy RTCW/ET będą właśnei na tym engine oraz wychodzeniu innych gier wykorzystujących dobrodziejstwa DirectX9, shadery itd trzeba było poważnie pomyśleć o wymianie karty a mój wybór padł na Gforce6800 GT AGP (nie chciałem zmieniać płyty i procka żeby tylko mieć PCI-Express które i tak w sumie aktualnie gówno daje).


Trochę wcześniej naczytałem się o Gforce6600 że karta rwie w starych grach typu ET, że fpsy skaczą niemiłosiernie (od niskich to bardzo wysokich).
ten problem był już poruszany na naszym forum.
Niektórzy mówili że to wina "tylko" 128 bitowej szyny co w stosunku do ET jest bezsensu bo to stara gra z jeszcze starszym engine pamiętającym czasy dziadka Quakea 3. na której również 128 bitowy i to z mniejszym takotwaniem GF4 czy nawet GF3 dają sobie radę wyśmeinicie.
Jednak na te problemy skarżyli się również posiadacze GF 6800 które ma 256 bitową szynę i gigantyczną przepustowość 20-30 GB/s (Gf3 6-7 GB/s).


Po wymianie karty u mnie ze wspomnianego GF4 na GF6800 w ET fpsy są takie same. W ET i tak gram w 800x600 czasami w 1024x768 z configa wyciśnięte na max co się da. fpsy Mam cały czas zalokowane na 125 i w obydwu przypadkach cały czas się tyle utrzymuje.
W obydwu przypadkach nie ma mowy o osiągnięciu stałych 333 fps chyba że na małych mapach typu ctf_multi lub gamma_jump.

Prawdopodobnie przewaga GF6800 uwidoczniłaby się dopiero w rozdzielczości 1600x1200 z włączonym wszystkimi efektami ale mój aktualny monitor nei pozwala na osiągnięcie takiej rozdziałki.

Na GF6800 nic mi nie skacze w ET, cały czas stałe fpsy podobnie jak na poprzednim GF4ti.


Dlaczego ? Może wyjaśnię.

Engine ET jest na bazie engine RTCW który z kolei jest na bazie engine Q3. W gruncie rzeczy silnik ET to silnik Q3. Silnik Q3 jest doś stary powstawał w czasach kiedy jeszcze na rynku nie było kart z obsługą transform&lighting nie mówiąc o współczesnych kartach wykorzystujących shadery, directx9 itd.
Poprostu Q3 to tradycyjny rendering wykorzystujący przede wszystkim procesor komputera a jeśli chodzi o grafikę zależny od czysto teoretycznych rzezy jak ilości potoków, fill-rate itd . Już od starych kart GF3 w górę róznice pomiędzy najnowszymi a najstarszymi kartami w ilości fps się zacierają. Dopiero w gigantycznych rozdzielczościach najnowsze karty uzyskują przewagę co jest tylko skutkiem większej ich przepustowości a nie zastosowanych technik.

Poprostu engine Q3 jest zależny przede wszystkim od procka i jego częstotliwości a w szczególności od ilości pamięci cache i szyny fsb. Dlatego Q3 doskonale buja się na Athlonach i Pentiumach które w przeciwieństwie do Celeronów i Sempronów/Duronów mają i więcej cache i większą szynę danych.

Do tego sami gracze ET tuningując configi maksymalnie okrajają grę z różnych wodotrysków i tym samym grafika nie ma nic do roboty a grze pozwala rozbujać się dopiero procek, który i tak w multi w przeciwieństwie do single jest bardziej obciążony ze względu na obłsugę trybu multi (więcej graczy, sieć itd)



Kupująć GF6800 wcale nie liczyłem na wzrost ilości fps w ET bo ta jest zależna przede wszystkim od parametrów procka. Kupując GF6800 mam w planie granie w nowe gry wykorzystujące najnowsze efekty graficzne gdzie dopiero ujawnia się kolosalna różnica pomiędzy starymi i nowymi grami.
Kupując GF6800 bałem się że w starych grach (ET) będzie skakać, co okazało się bezzasadne. Być moze faktem jest że Nvidia olała zgodność ze starszymi grami ale ja tego nie zauważyłem. Nie sądzę żeby GF6xxx to była karta dobra tylko pod DoomIII co zresztą potwierdza wiele testów. 6xxx to karty dobre pod wszystkie gry a szczególnie wybitna pod DoomIII.
Być może faktycznie Gf6600 w starych grach wychodzi dużo słabiej od 6800GT ale nie miałem okazji sprawdzić.

Podejrzewam że większość narzekających na GF6xxx to właściciele słabych sprzętów, którzy myśleli że jak wsadzą do kompa kartę która kosztuje więcej niż cały komp to wszędzie będą mieli wielki przyrost fps.
A prawda jest taka że na słabych kompach przyrost bedzie niewielki tylko w nowych grach.
Z drugiej strony narzekali i właściciele mocnych maszyn, narzekano na niestabilne fpsy (raz bardzo wysokie raz ledwo zadowalające) w przeciwieństwie do Ati które
może nie w momentach super wysokich ale cały czas wysokie stabilne.
Moze dochodzi problem sterowników i wraz wydaniem nowszch wersji te problemy ostatecznei znikną, chociaż znając nvidie ta raczej skupia się na wydajności w 3dmark w doomIII niż w strych grach.


I dlatego w ET po wymianie jakiejkolwiek od GF3 w górę na najnowszą nie uzyskamy przyrostu fps. Ja nie uzyskałem 333 fps bo mam za słaby na to procek (Athlon 3000) i nie pomoże tu nawet 6800Ultra w trybie SLI.
Gdybym miał Athlona FX lub PIV ExtremeEdition to pewnie udałoby się.

Jak jest naprawdę nie wiem, nie testowałem do tej pory GF6600 pod kątem wydajności w starych grach. W moim przypadku na 6800 nei ma ządnych problemów ze skaczącymi fpsami.
Dante#
Jeżeli można dodać to powodem skoków fps moze być asynchroniczne fsb procka i taktowanie pamięci. Dowiedziono ze jeśli jest to zsynchronizowane to wydajność wzrasta.
To jest wersja lo-fi głównej zawartości. Aby zobaczyć pełną wersję z większą zawartością, obrazkami i formatowaniem proszę kliknij tutaj.
Invision Power Board © 2001-2026 Invision Power Services, Inc.