News Weitere Einzelheiten zur Radeon-HD-4800-Serie

Meine Güte, es ist doch scheiß egal ob AMD oder NV besser ist...kauft das was schneller, preiswerter oder beides ist...dann habt ihr keine Probleme.
 
Und wenn man die GegForce 9800GX2 mit einer wasserkühlung ausstatet und sie dan noch übertaktet dann nutzt auch gddr5 nichts . Ich glaube das nVidia da was Plant , den die 9000er sind nur höher getaktet besitzen aber immernoch gddr3 .
 
Ja, sicher ist nutzt dann GDDR5 nix. Aber auch die 4800`ter kann ich mit ner Wasserkühlung versehen, und dann ist der Vorsprung wieder da. Also sollte man immer von der Standart Performance ausgehen und vergleichen.

Und bei der 4800 heißt es: :pABWARTEN und TESTEN-lassen:p

Und letztlich ist es egal, ob sie vielleicht 2 FPS langsamer sind, wenn sie 100 Euro weniger kosten.
 
Zuletzt bearbeitet:
nWarrior schrieb:
Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke! :)

Bitte keine offensichtlichen Fake Bilder posten, danke!

Dann poste auch wenigstens den restlichen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538570#post6538570

Welche Karte nun schneller ist, ist mir wirklich schnuppe, es geht dabei nur um marginale %-Punkte. Wichtiger zählen für mich Gesamtfeatures (z. B. Videobeschleunigung & co.), sowie der Stromverbrauch sowohl Idle als auch Vollast -> dabei gehts mir um die Temperatur im Gehäuse und Raum, weniger um 10 Euro Stromkosten.
 
flappes schrieb:
Bitte keine offensichtlichen Fake Bilder posten, danke!

Dann poste auch wenigstens den restlichen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538570#post6538570

Welche Karte nun schneller ist, ist mir wirklich schnuppe, es geht dabei nur um marginale %-Punkte. Wichtiger zählen für mich Gesamtfeatures (z. B. Videobeschleunigung & co.), sowie der Stromverbrauch sowohl Idle als auch Vollast -> dabei gehts mir um die Temperatur im Gehäuse und Raum, weniger um 10 Euro Stromkosten.

Schade, ich dachte, ich würde jetzt ne heiße Diskussion entfachen! Mir war klar, dass das Fake ist. :D
 
flappes schrieb:
Bitte keine offensichtlichen Fake Bilder posten, danke!
Warum, Hardware Infos wird auch regelmäßig verlinkt. :)
Oder die türkische Seite. :)

Haben sogar extra News bekommen.
 
@nWarrior: Crysis wirste auf nem 30 Zoller auch nicht mit ner GT200 very high flüssig spielen können. Soweit lehne ich mich mal aus dem Fenster. Für 17 oder 19 Zoll ist eine R700 total überdimensioniert da hier der Prozessor limitiert, nicht die Graka. Zurück zum Thema: Die Ati wird ein TOP P/L haben. Nvidia hat da "nur" ne GX2 entgegenzubieten, die wiederum deutlich teurer ist, vom Stromverbrauch will ich nicht reden. Adios:cool_alt:
 
Sorry, oben meinte ich natürlich RV770! MfG:D
 
Dies wird Aufgabe des R700 sein, der vermutlich als Radeon HD 4870 X2 vermarktet werden wird
Diese Entwicklung finde ich ein wenig schade. Single-Chip Lösungen sollten meiner Meinung nach genauer ins Auge gefasst werden. Da gibt es sicher auch viel auszureizen.

Der Rest hört sich schon mal verlockend an. Ich trink nen Tee.
 
Hi mal ne Frage wan werden die Dinger denn für den markt freigegeben? also hat jemand Infos über die Release dates? weil meine komische Radeon x1700 is iwie net der bringer drum such ih grad ne neue^^
 
hab mir jetzt nicht den ganzen Fred durchgelesen, aber wenn ich solche Dinger lese wie X2 vs. GX2, muss ich nur lachen, die X2 war die Antwort auf die 8800Ultra, und GX2 war die Antwort auf die X2.

Wenn die 4850 wirklich ne 9800GTX schlagen kann, kann ich mir kaum vorstellen das ATI oder NV ne Double-GPU-Graka herstellen wird, weil es beim letzten mal nur um die Performance-Krone ging, und da war ATI letztendlich dazu gezwungen.

Wenn beide Karten etwa gleichauf sind, wird wohl kaum einer auf die Idee kommen ne Dual-Gpu-Graka herzustellen!

Wenn überhaupt sollen die zwei GPU´s auf einer DIE verbauen, so wie bei den CPUs, dann wirds auch Sinn machen, und Mikroruckler wirds dann nicht mehr geben!:)
 
Übersoldier75 schrieb:
[...] Wenn überhaupt sollen die zwei GPU´s auf einer DIE verbauen, so wie bei den CPUs, dann wirds auch Sinn machen, und Mikroruckler wirds dann nicht mehr geben!:)
Das würde das Problem der schwankenden Frametimes aber nicht lösen. Ob ich zwei in sich geschlossene GPUs auf ein Die oder auf 2 Dice packe, ist egal. Das Einzige was den Spaß beschleunigt, ist, die Anzahl der Recheneinheiten der GPU zu erhöhen bzw. die pro-Takt-Leistung weiter zu verbessern. Genau das passiert ja mit jeder neuen Generation mehr oder weniger.

Das Problem beim AFR ist doch, dass der Treiber jeden neuen Frame an die gerade frei gewordene GPU schickt, ohne auf den zeitlichen Ablauf (die Frametimes) zu achten. Das sollte theoretisch durch Treiberanpassungen zu beheben sein, nur leider scheint es schwieriger zu sein, als ich es mir vorstelle - sonst wäre das Problem ja schon längst vom Tisch. ;)

Diese ganze SLI/CF-Geschichte hat meines Erachtens momentan keinen Mehrwert, der den Aufwand (Anschaffungspreis, Lautstärke, Energiebedarf) rechtfertigt.
 
nWarrior schrieb:
Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke! :)

man müsste erstmal auf die 4870x2 warten die soll glaub ich erst im august kommen.
Und wenn du die wette eingehen willst erwarte ich dann schonmal das geld im august^^.
Denn ich hab einen >>>NAGELNEUEN BENCHMARK<<< zu den kommenden Karten.
 
Zuletzt bearbeitet:
Dulo schrieb:
man müsste erstmal auf die 4870x2 warten die soll glaub ich erst im august kommen.
Und wenn du die wette eingehen willst erwarte ich dann schonmal das geld im august^^.
Denn ich hab einen >>>NAGELNEUEN BENCHMARK<<< zu den kommenden Karten.

Dann bekomm ich schonmal 2 Mio €! Dieser Benchmark ist ja mal sowas von unrealistisch.
 
Ihr Nvidia Fanboys werdet von der gtx280 genauso enttäuscht sein, wie einst die ATi'ler von dem R600.
gtx280 hat in etwa 50% mehr Rohleistung als die 8800ultra, hier kommen max. 40% mehr Leistung raus, außer die Ramlimitierungen greifen, dann werden es mehr.
der rv770 ist aber im schnitt 100% schneller als der rv670, in Extremsituationen bestimmt auch 200% schneller. Hat mehr Shaderpower als die GTX280, ist dreimal kleiner und stromsparender. Wer nicht mal ansatzweise zugeben kann, dass ATi zumindest aufschließen konnte, ist in meinen Augen blind.
Die GTX260 ist von der Daten her wie eine 8800Ultra evtl. max 15% schneller und wird wohl auf Augenhöhe mit einem rv770 sein, dabei aber wesentlich teuerer, heißer und lauter. Die Geschichte wiederholt sich, nur haben die Beteiligten die Plätze getauscht
 
nWarrior schrieb:
Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke! :)

EDIT: Erster Benchmark?


ich weiss ja nicht wie manche hier spekulieren. gt200 basiert auf g80/g92 design, hat einige einheiten mehr, aber wegen dem grösseren chip und mehr abwärme niedrigere taktraten. shaderleistung scheints signifikant mehr zu geben, aber nicht um 100% mehr, und dann kommt die nicht signifikant gestiegene pixel und texelfüllrate und nur 40% mehr speicherbandbreite
aber ja klar, 3mal so schnell wie ne 9800er, ja :P
 
R600, ick hör dir trapsen, würd der Berliner jetzt sagen. ^^ Ich vermute auch, daß sich nVidia da gerade ihren ganz persönlichen R600 basteln.

Geschichte wiederholt sich halt. ATi vorne mit 9800, nVidia bodenlos mit GF FX; ATi schneller mit Radeon X, aber verpennt SM3, nVidia langsamer mit GF 6, aber SM3; ATi etwas vorne mit X1k, nVidia mit GF 7 leicht dahinter... dann die Wende mit GF8, ATi kommt viel zu spät mit dem grottigen R600; nVidia mit GF9 aber ohne SM 4.1, ATi langsamer mit HD3k, aber mit SM 4.1... fällt was auf? Jetzt kommt GF GTX gegen HD4k...
 
Der Vergleich zum R600 ist hier völlig fehl am Platz.
R600 ist eine völlig neue Architektur, die Probleme sind auch teils ein RV670 und RV770 übernommen worden.
G80 war von Anfang an toll, wird jetzt verbessert, geshrinkt und vergrößert. Da muss man relativ rot sehen, um das mit R600 zu vergleichen.

AlphaGoku schrieb:
gtx280 hat in etwa 50% mehr Rohleistung als die 8800ultra, hier kommen max. 40% mehr Leistung raus
Du hast die erhöhte Effizienz der Einheiten übersehen.

eine GT200 Einheit != eine G80 Einheit
 
Zurück
Oben