News Radeon HD 4850 so schnell wie 8800 Ultra?

irgendwie ist in dieser steam umfrage aber ein fehler drin:
1. Wer nutzt 30 CPU Kerne?
2. Wer nutzt da angeblich 127 CPU Kerne?

außerdem stimmt das mit den Verkaufszahlen der HD 3850 nicht so ganz, da haben laut verkauszahlen weitaus mehr als so eine HD 3850/70.
und was glaubt man mehr: offiziellen verkaufszahlen oder steam?

Ich möchte außerdem ganz besonders dem Fortissimo4 zustimmen

Edit: laut steam spielen ja auch die meisten auf 16 zoll! und angeblich auch einige auf 6 zoll...

Unyu schrieb:
Klar, die beste Umfrage ist dir nicht gut genug.

Es sind alle Klassen in der Umfrage enthalten, so wie sie tatsächlich verteilt sind.
High-End dominiert nunmal nicht.

da magst du recht haben, allerdings geht es in diesem Thread um die High-End Klasse, beachte die bitte das nächste mal vor diesen kommentaren
 
Zuletzt bearbeitet:
Du zockst mit nem PVA Panel? Ne is klar.
Was genau möchtest du damit ausdrücken?
Ich bearbeite damit auch Bilder u.a.

Es sind alle Klassen in der Umfrage enthalten, so wie sie tatsächlich verteilt sind.
Belege?

Ich spiel lieber auf max Details in 1280x1024 als mit Matschtexturen und ohne Effekte in 1920x1200!
Eigenartiger Weise kann ich Assassins Creed mit einer 8800gt in durchaus guten Details und 1920x1200 spielen. Das meine ich nicht ironisch, das wundert mich wirklich.
Wenn es nicht grade Crysis (was mir nicht gefällt) sein muss, dann gehts eigentlich.
Grad mein Lieblingsspiel Half Life² sieht einfach stark aus auf der Auflösung und das funktionierte schon vor 1,5 Jahren mit meiner 7900gto. Die hatte auch nicht die Welt gekostet.
 
Zuletzt bearbeitet:
Zwirbelkatz schrieb:

Logik? ;) Steam ist schon mehrere Jahre alt, trotzdem noch aktuell und hat eine Menge aktueller Spiele, die beliebt sind.
Daher kann man annehmen, dass 1. Steam von Leuten mit älterer Hardware gespielt werden kann und 2. auch Leute mit aktueller Hardware in Steam vorhanden sind! (oder ignorieren die TF2 etc. nur weil das ihre tolle 8800 Ultra nicht auslastet?)
 
Lubber schrieb:
Du zockst mit nem PVA Panel? Ne is klar.

Mit was sonst? Die Farben von einem Tn-Panel tu ich mir sicher nicht an. Und als Nicht-Ligaspieler stören mich die 1-2 Frames nicht.
 
Hm, wäre für mich kein Grund zu wechseln. Das Beste wird wirklich sein, wir gedulden uns ganz einfach noch 10 Tage.
 
Unyu schrieb:
Noch mal die echten Werte:

Vantage Xtreme profile:
GeForce GTX 280 ······· X4100
GeForce GTX 260 ······· X3800
GeForce 9800GX2 ······· X3600
GeForce 8800 Ultra ····· X2400

Radeon HD 4870 XT ···· X2600
Radeon HD 3870X2 ····· X2500
Radeon HD 4850 Pro ··· X2000

Radeon HD 3870 ········ X1400
* 1920x1200 4AA/16AF

"
The X4100 number for the GTX 280 was correct with the drivers at the time. Seems that NV was able to push it to X4800 with the latest drivers."


nicht möglich, weil:

gt200 ist g80 basiert, hat knapp doppelt soviele shader, aber 20% weniger takt dieser, womit man auf 60-65% verbesserte shaderleistung kommt, was sich auch in der theoretisch maximalen rechenleistung niederschlägt (gtx280's 930 gigaflops vs 580gflops der 8800 ultra; ca 55% unterschied)
pixel- und texelfüllraten wurde von einem spitzenmodell der g80/g92 serie um 20-30% verbessert
speicherbandbreite hat die gtx280 um 40% mehr als die 8800 ultra
die daten kommen von hier: https://www.computerbase.de/2008-05/finale-taktraten-der-geforce-gtx-280-gtx-260/ , und wurden von einem gpu-z screenshot von der computex vor ein paar tagen bestätigt


je nach spiel (crysis bevorzugt zb karten mit mehr füllrate gegenüber karten mit mehr shaderleistung, anderen spiele profitieren mehr von schnelleren shadern) wird es wohl eine leistungssteigerung um 40% geben. maximal wird sich die gtx280 auf 9800gx2 niveau einpendeln, welche 50% schneller ist als eine 8800 ultra, aber ich glaube eher im ersten test auf computerbase wird sie sich beim performancerating in allen einstellungen unter der gx2 einfügen
nvidia hat sich entschieden dem g80 etliche extra einheiten zu spendieren. und somit einen riesen chip zu produzieren bei dem verbrauch und abwärme gestiegen ist, und somit auch die taktraten herabgesetzt werden mussten. das werden sie wohl in vielerlei hinsicht büssen müssen. wer kauft sich schon für 40% leistungsteigerung eine riesen zwei-slot karte, die fast eine eigene leitung zum stromverteiler braucht, um 500 euro?

ati hat zu ihrem chip ebenfalls nur einheiten dazugestöpselt und die speicherbandbreite erhöht, allerdings hat ATI das moderater bei einem im vornherein schon kleineren chip gemacht und die speicherbandbreite über die wahl des speichers erhöht (es musste nichts am speicherinterface geändert werden und somit keine zusätzlichen einheiten hinzugefügt werden). resultierend konnten auch noch die taktraten erhöht werden
ich will damit nicht sagen dass die hd4870 performance mässig mit der gtx280 konkurrieren kann, aber evtl mit der gtx260, und schneller wie eine 8800 ultra wird sie ebenfalls zu 100%
mit dem relativ kleinen r770 chip ist allerdings im gegensatz zum gt200 eine 2chip-karte möglich, und hier braucht man sich keine gedanken machen, wer der performancekönig wird
hinzu kommt der stromverbrauch der einzelkarten, die spätestens seit ein paar monaten längst ausgereiften treiber, das bessere p/l verhältnis und das viel schärfere bild der ATI karten auf bestem matrox niveau (naja, vll hat nvidia beim gt200 da ja endlich mal dran gearbeitet)

ATI scheint ab mitte/ende dieses monats wieder die karten in der hand zu haben
 
Zuletzt bearbeitet:
Eine GT200 Einheit ist effizienter als eine G80 Einheit.
Die technischen Daten sind nicht direkt vergleichbar.
 
hi unyu,

man sollte annehmen dass etliche kleinere verbesserungen reingeflossen sind, aber abgesehen davon sorry, der chip ist einfach g80 design mit je einheit etwas dazugestückelt. die übergänge der daten von g80 zu gt200 sind einfach zu linear

so nebenbei sind pixel und texelfüllrate & speicherbandbreite fixe messgrössen, die nur sehr minimal "effizienter genützt" werden können

mach ich normal nicht, aber - signaturwette, dass die gtx280 im performancerating im cb test auf allen einstellungen bis auf 2560 (die lassen wir mal weg, hier kann der grosse speicher den neuen gtx helfen) der gx2 unterlegen ist?

greetz
 
Die Veränderungen sind nicht ganz so klein.
Das verlorene MUL wiedergefunden, höhere Bandbreiteneffizienz, durch die ROPs flutsch jetzt auch mehr durch, ....

Du kannst gerne mal nachrechnen:
681 Millionen Transistoren * 2 = 1362 Millionen Transistoren, passt, GT200 hat 1400
24 ROPs * 2 > 32 ROPs
128 SP * 2 > 240 SPs
64 TMUs * 2 > 80 TMUs
32 TAUs * 2 < ?80 TAUs

Na wo verstecken sich die Transistoren? In den paar TAUs oder im VP2? ;) -> Nö im zeiten Satz ....

Vergleiche mal eine 7900GTX mit einer 9800GTX.
3-4 fache Leistung, aber praktisch genauso viele MPix/s. ;)

btw ist es gar nicht spannend zu sehen, wie die 4850 eine 112€ Karte um 8% schlägt? :D
 
Zuletzt bearbeitet:
bin mit den alten chips nicht so vertraut. habe jetzt gerade nachgelesen. naja ich denke dass die immens gesteigerte shaderleistung, die knapp dreifache texelfüllrate und die grössere speicherbandbreite den leistungsunterschied ausmacht
ich denke hauptsächlich dass shaderleistung fehlt, da der performanceunterschied von der angesprochenen 7900gtx zur 9800gtx in den guten altmodischen spielen mit der doom3 engine nicht mal bei 100% liegt
naja, es wird sich wieder mal zeigen. falls shaderleistung wirklich so wichtig ist, kann die gtx280 durchaus schneller als eine gx2 werden. irgendeinen grund muss es ja geben, warum sowohl nvidia als auch ati beide um die 70% mehr shaderleistung in ihre neue grafikkartengeneration stopfen
trotzdem, meine wette steht. und es wird wieder mal interessant, die benchmarks werden wieder mal aufschluss darüber welche art von leistung wirklich am meisten von einer grafikkarte benötigt werden. das hirn freut sich schon drauf, wieder ein paar sachen zu lernen ;)
 
stoneeh schrieb:
man sollte annehmen dass etliche kleinere verbesserungen reingeflossen sind, aber abgesehen davon sorry, der chip ist einfach g80 design mit je einheit etwas dazugestückelt. die übergänge der daten von g80 zu gt200 sind einfach zu linear
So ein Unsinn, der GT200 enthält zahlreiche evolutionäre Verbesserungen. Die Vantage Score von 4800 wurde sogar schon von CJ bestätigt.

Immer wieder nett: Google mal nach "missing mul gt200". Nur als Beispiel.
 
hm, liest den thread noch wer? :)

habe gerade nachgelesen dass final clock der hd4870 750mhz sein sollen, statt den angekündigten 850. sehr enttäuschend
 
Wird schon seine Gründe haben, denk ich mal, und ja der Thread ist auf der News Seite Nr. 1 wird also sicherlich gelesen werden ^^

Wenn das Teil mit 750mhz die angepeilten werte erreicht, warum nicht, mhz sind ja nicht alles, sieht man ja deutlich am GT200...
 
Außerdem ist selbst 22" wide mit einer Auflösung von 1680x1050 bei voller Qualität eine Bestandsprobe für den V-Ram und deren Bandbreite.

Zum Thema noch:
Gut möglich, das für Leute mit außerordentlich hoher Auflösung eine Hd4870 mit 1024mb Sinn macht.


was für ein blödsinn
ich spiele mit meiner 256mb hd3850 problemlos oblivion auf 1680, in maximaler qualität
über 256mb grafikspeicher brauchst du nur mit hoher anisotropischer filterung oder sehr hochauflösenden unkomprimierten texturen (meistens nur mit speziellen texture packs der fall)
tests hier auf computerbase und auf tomshardware haben gezeigt dass selbst von 256mb zu 512mb in den wenigsten spielen performanceunterschied nachzuweisen sind . 512 zu 1gb ergab sowieso null unterschiede
512mb macht imo bei den neuen karten sinn, ich persönlich zahle jedoch nicht 60, 70 euro mehr für 1gb, wenns mir theoretisch mal in einem 1 spiel mal was bringen könnte in einer einstellung die ich sowieso nie verwenden werd
andere sehen es anders, der ram industrie wird es sicher nicht schaden ;)
 
Wer zum teufel kommt darauf das es eine HD 4870 XT geben soll oder die HD 4850 PRO die wird es auch niemals existieren .
Es wird nur den RV 770 chip in XT und PRO Variante als HD 4870 (RV 770 XT ) und der HD 4850 ( RV 770 PRO ) geben .
 
so, ist jetzt mehr oder weniger bewiesen was ich behauptet habe

in 3dmark06 liegt die gtx280 weit hinter den 20000 punkten einer gx2 zurück
in vantage verhält sichs ähnlich, ausser vll dem xtreme setting, da die gtx280 auf 1gb speicher zurückgreifen kann, die gx2 effektiv nur auf 512, das extreme setting jedoch weit mehr als 512mb speicher nutzt


nvgt200numbersjf3.jpg



in spielen wirds nicht so gravierend ausfallen, aber trotzdem keine andere story sein


grüsse
stony


ps: ich glaube IgG wird bald seine signatur tauschen ;)
 
Bleibt es nun beim 18 Juni als Releasetag?
 
wenn das wirklcih nur high quality settings bei crysis waren, ist ja die GX2 sogar da auch schneller^^



gruß
 
Hi Leute,

sorry aber viele leute reden hier viel quark.

WORD @ STONEEH --> du weist was geht homie :-)

Die ersten "richtigen" 4850 reviews sind draußen http://www.xtremesystems.org/forums/showthread.php?t=191096

Was belegt das das angepeilte "performance segment" der 4850 bei weitem übertroffen wird dank des 800 pipeline layouts.

Zum vergleich


GTX 260 Vantage P8500
HD 4850 Vantage P7444 @ quad 4ghz


REDET IHR EUCH DAS IMMER NOCH SCHÖN 8800gt 100mark karte 8%?

Leute fragt euch doch mal was bei 8% mehr leistung den aussschlag gibt die gt260 100$ biliger zu machen?


so long...
 
Zuletzt bearbeitet:
Zurück
Oben