Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Weitere Einzelheiten zur Radeon-HD-4800-Serie
- Ersteller Volker
- Erstellt am
- Zur News: Weitere Einzelheiten zur Radeon-HD-4800-Serie
Core2Rakete
Cadet 2nd Year
- Registriert
- Feb. 2008
- Beiträge
- 16
Ja, sicher ist nutzt dann GDDR5 nix. Aber auch die 4800`ter kann ich mit ner Wasserkühlung versehen, und dann ist der Vorsprung wieder da. Also sollte man immer von der Standart Performance ausgehen und vergleichen.
Und bei der 4800 heißt es: ABWARTEN und TESTEN-lassen
Und letztlich ist es egal, ob sie vielleicht 2 FPS langsamer sind, wenn sie 100 Euro weniger kosten.
Und bei der 4800 heißt es: ABWARTEN und TESTEN-lassen
Und letztlich ist es egal, ob sie vielleicht 2 FPS langsamer sind, wenn sie 100 Euro weniger kosten.
Zuletzt bearbeitet:
F
flappes
Gast
nWarrior schrieb:Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke!
Bitte keine offensichtlichen Fake Bilder posten, danke!
Dann poste auch wenigstens den restlichen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538570#post6538570
Welche Karte nun schneller ist, ist mir wirklich schnuppe, es geht dabei nur um marginale %-Punkte. Wichtiger zählen für mich Gesamtfeatures (z. B. Videobeschleunigung & co.), sowie der Stromverbrauch sowohl Idle als auch Vollast -> dabei gehts mir um die Temperatur im Gehäuse und Raum, weniger um 10 Euro Stromkosten.
flappes schrieb:Bitte keine offensichtlichen Fake Bilder posten, danke!
Dann poste auch wenigstens den restlichen Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6538570#post6538570
Welche Karte nun schneller ist, ist mir wirklich schnuppe, es geht dabei nur um marginale %-Punkte. Wichtiger zählen für mich Gesamtfeatures (z. B. Videobeschleunigung & co.), sowie der Stromverbrauch sowohl Idle als auch Vollast -> dabei gehts mir um die Temperatur im Gehäuse und Raum, weniger um 10 Euro Stromkosten.
Schade, ich dachte, ich würde jetzt ne heiße Diskussion entfachen! Mir war klar, dass das Fake ist.
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Warum, Hardware Infos wird auch regelmäßig verlinkt.flappes schrieb:Bitte keine offensichtlichen Fake Bilder posten, danke!
Oder die türkische Seite.
Haben sogar extra News bekommen.
PCFreakC16
Lt. Commander
- Registriert
- Apr. 2007
- Beiträge
- 1.415
@nWarrior: Crysis wirste auf nem 30 Zoller auch nicht mit ner GT200 very high flüssig spielen können. Soweit lehne ich mich mal aus dem Fenster. Für 17 oder 19 Zoll ist eine R700 total überdimensioniert da hier der Prozessor limitiert, nicht die Graka. Zurück zum Thema: Die Ati wird ein TOP P/L haben. Nvidia hat da "nur" ne GX2 entgegenzubieten, die wiederum deutlich teurer ist, vom Stromverbrauch will ich nicht reden. Adios
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Ich kann die Graka auch bei 17" böse limitieren lassen. Bin ich jetzt Gott?
Noch mehr Benches:
http://www.nordichardware.com/news,7809.html
Noch mehr Benches:
http://www.nordichardware.com/news,7809.html
PCFreakC16
Lt. Commander
- Registriert
- Apr. 2007
- Beiträge
- 1.415
Sorry, oben meinte ich natürlich RV770! MfG
Diese Entwicklung finde ich ein wenig schade. Single-Chip Lösungen sollten meiner Meinung nach genauer ins Auge gefasst werden. Da gibt es sicher auch viel auszureizen.Dies wird Aufgabe des R700 sein, der vermutlich als Radeon HD 4870 X2 vermarktet werden wird
Der Rest hört sich schon mal verlockend an. Ich trink nen Tee.
Übersoldier75
Lieutenant
- Registriert
- März 2008
- Beiträge
- 814
hab mir jetzt nicht den ganzen Fred durchgelesen, aber wenn ich solche Dinger lese wie X2 vs. GX2, muss ich nur lachen, die X2 war die Antwort auf die 8800Ultra, und GX2 war die Antwort auf die X2.
Wenn die 4850 wirklich ne 9800GTX schlagen kann, kann ich mir kaum vorstellen das ATI oder NV ne Double-GPU-Graka herstellen wird, weil es beim letzten mal nur um die Performance-Krone ging, und da war ATI letztendlich dazu gezwungen.
Wenn beide Karten etwa gleichauf sind, wird wohl kaum einer auf die Idee kommen ne Dual-Gpu-Graka herzustellen!
Wenn überhaupt sollen die zwei GPU´s auf einer DIE verbauen, so wie bei den CPUs, dann wirds auch Sinn machen, und Mikroruckler wirds dann nicht mehr geben!
Wenn die 4850 wirklich ne 9800GTX schlagen kann, kann ich mir kaum vorstellen das ATI oder NV ne Double-GPU-Graka herstellen wird, weil es beim letzten mal nur um die Performance-Krone ging, und da war ATI letztendlich dazu gezwungen.
Wenn beide Karten etwa gleichauf sind, wird wohl kaum einer auf die Idee kommen ne Dual-Gpu-Graka herzustellen!
Wenn überhaupt sollen die zwei GPU´s auf einer DIE verbauen, so wie bei den CPUs, dann wirds auch Sinn machen, und Mikroruckler wirds dann nicht mehr geben!
Das würde das Problem der schwankenden Frametimes aber nicht lösen. Ob ich zwei in sich geschlossene GPUs auf ein Die oder auf 2 Dice packe, ist egal. Das Einzige was den Spaß beschleunigt, ist, die Anzahl der Recheneinheiten der GPU zu erhöhen bzw. die pro-Takt-Leistung weiter zu verbessern. Genau das passiert ja mit jeder neuen Generation mehr oder weniger.Übersoldier75 schrieb:[...] Wenn überhaupt sollen die zwei GPU´s auf einer DIE verbauen, so wie bei den CPUs, dann wirds auch Sinn machen, und Mikroruckler wirds dann nicht mehr geben!
Das Problem beim AFR ist doch, dass der Treiber jeden neuen Frame an die gerade frei gewordene GPU schickt, ohne auf den zeitlichen Ablauf (die Frametimes) zu achten. Das sollte theoretisch durch Treiberanpassungen zu beheben sein, nur leider scheint es schwieriger zu sein, als ich es mir vorstelle - sonst wäre das Problem ja schon längst vom Tisch.
Diese ganze SLI/CF-Geschichte hat meines Erachtens momentan keinen Mehrwert, der den Aufwand (Anschaffungspreis, Lautstärke, Energiebedarf) rechtfertigt.
Nikuman
Commander
- Registriert
- Juni 2007
- Beiträge
- 2.297
nWarrior schrieb:Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke!
man müsste erstmal auf die 4870x2 warten die soll glaub ich erst im august kommen.
Und wenn du die wette eingehen willst erwarte ich dann schonmal das geld im august^^.
Denn ich hab einen >>>NAGELNEUEN BENCHMARK<<< zu den kommenden Karten.
Zuletzt bearbeitet:
Dulo schrieb:man müsste erstmal auf die 4870x2 warten die soll glaub ich erst im august kommen.
Und wenn du die wette eingehen willst erwarte ich dann schonmal das geld im august^^.
Denn ich hab einen >>>NAGELNEUEN BENCHMARK<<< zu den kommenden Karten.
Dann bekomm ich schonmal 2 Mio €! Dieser Benchmark ist ja mal sowas von unrealistisch.
Booby
Lt. Commander
- Registriert
- Feb. 2005
- Beiträge
- 1.970
Ihr Nvidia Fanboys werdet von der gtx280 genauso enttäuscht sein, wie einst die ATi'ler von dem R600.
gtx280 hat in etwa 50% mehr Rohleistung als die 8800ultra, hier kommen max. 40% mehr Leistung raus, außer die Ramlimitierungen greifen, dann werden es mehr.
der rv770 ist aber im schnitt 100% schneller als der rv670, in Extremsituationen bestimmt auch 200% schneller. Hat mehr Shaderpower als die GTX280, ist dreimal kleiner und stromsparender. Wer nicht mal ansatzweise zugeben kann, dass ATi zumindest aufschließen konnte, ist in meinen Augen blind.
Die GTX260 ist von der Daten her wie eine 8800Ultra evtl. max 15% schneller und wird wohl auf Augenhöhe mit einem rv770 sein, dabei aber wesentlich teuerer, heißer und lauter. Die Geschichte wiederholt sich, nur haben die Beteiligten die Plätze getauscht
gtx280 hat in etwa 50% mehr Rohleistung als die 8800ultra, hier kommen max. 40% mehr Leistung raus, außer die Ramlimitierungen greifen, dann werden es mehr.
der rv770 ist aber im schnitt 100% schneller als der rv670, in Extremsituationen bestimmt auch 200% schneller. Hat mehr Shaderpower als die GTX280, ist dreimal kleiner und stromsparender. Wer nicht mal ansatzweise zugeben kann, dass ATi zumindest aufschließen konnte, ist in meinen Augen blind.
Die GTX260 ist von der Daten her wie eine 8800Ultra evtl. max 15% schneller und wird wohl auf Augenhöhe mit einem rv770 sein, dabei aber wesentlich teuerer, heißer und lauter. Die Geschichte wiederholt sich, nur haben die Beteiligten die Plätze getauscht
nWarrior schrieb:Alles klar, dann schick ich dir schonmal meine Bankdaten per PN. Kannst das Geld dann am 18. Juni überweisen. Danke!
EDIT: Erster Benchmark?
ich weiss ja nicht wie manche hier spekulieren. gt200 basiert auf g80/g92 design, hat einige einheiten mehr, aber wegen dem grösseren chip und mehr abwärme niedrigere taktraten. shaderleistung scheints signifikant mehr zu geben, aber nicht um 100% mehr, und dann kommt die nicht signifikant gestiegene pixel und texelfüllrate und nur 40% mehr speicherbandbreite
aber ja klar, 3mal so schnell wie ne 9800er, ja
DarknessFalls
Lieutenant
- Registriert
- Feb. 2008
- Beiträge
- 931
R600, ick hör dir trapsen, würd der Berliner jetzt sagen. ^^ Ich vermute auch, daß sich nVidia da gerade ihren ganz persönlichen R600 basteln.
Geschichte wiederholt sich halt. ATi vorne mit 9800, nVidia bodenlos mit GF FX; ATi schneller mit Radeon X, aber verpennt SM3, nVidia langsamer mit GF 6, aber SM3; ATi etwas vorne mit X1k, nVidia mit GF 7 leicht dahinter... dann die Wende mit GF8, ATi kommt viel zu spät mit dem grottigen R600; nVidia mit GF9 aber ohne SM 4.1, ATi langsamer mit HD3k, aber mit SM 4.1... fällt was auf? Jetzt kommt GF GTX gegen HD4k...
Geschichte wiederholt sich halt. ATi vorne mit 9800, nVidia bodenlos mit GF FX; ATi schneller mit Radeon X, aber verpennt SM3, nVidia langsamer mit GF 6, aber SM3; ATi etwas vorne mit X1k, nVidia mit GF 7 leicht dahinter... dann die Wende mit GF8, ATi kommt viel zu spät mit dem grottigen R600; nVidia mit GF9 aber ohne SM 4.1, ATi langsamer mit HD3k, aber mit SM 4.1... fällt was auf? Jetzt kommt GF GTX gegen HD4k...
Unyu
Banned
- Registriert
- Okt. 2004
- Beiträge
- 6.891
Der Vergleich zum R600 ist hier völlig fehl am Platz.
R600 ist eine völlig neue Architektur, die Probleme sind auch teils ein RV670 und RV770 übernommen worden.
G80 war von Anfang an toll, wird jetzt verbessert, geshrinkt und vergrößert. Da muss man relativ rot sehen, um das mit R600 zu vergleichen.
eine GT200 Einheit != eine G80 Einheit
R600 ist eine völlig neue Architektur, die Probleme sind auch teils ein RV670 und RV770 übernommen worden.
G80 war von Anfang an toll, wird jetzt verbessert, geshrinkt und vergrößert. Da muss man relativ rot sehen, um das mit R600 zu vergleichen.
Du hast die erhöhte Effizienz der Einheiten übersehen.AlphaGoku schrieb:gtx280 hat in etwa 50% mehr Rohleistung als die 8800ultra, hier kommen max. 40% mehr Leistung raus
eine GT200 Einheit != eine G80 Einheit
Ähnliche Themen
- Antworten
- 23
- Aufrufe
- 2.880
- Antworten
- 21
- Aufrufe
- 2.347
- Antworten
- 24
- Aufrufe
- 6.498
N
- Antworten
- 10
- Aufrufe
- 5.592
- Antworten
- 117
- Aufrufe
- 18.028