Nacho_Man
Rear Admiral
- Registriert
- Mai 2008
- Beiträge
- 5.291
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
Naja, das ist ja pure Spekulation. Da kann man überhaupt niemandem einen Vorteil zuschreiben. Ich denke eher, das Übertaktung für die meisten auch erstmal keine Option sein wird.Defragg schrieb:1. Chiptakt/Ram-Takt ist niedriger, mehr OC-Potenzial (glaube ich)
Das Speicherinterface ist bei nVidia nicht doppelt so schnell, es ist doppelt so breit. Im Endeffekt ist das aber kein Nachteil für ATI, da sie auf die benötigte Speicherbandbreite eben durch GDDR5 kommen. Das 512 Bit Speicherinterface ist vielmehr ein Nachteil. Erstens macht das den Chip in der Herstellung teurer, was sich logischerweise auf den Endkundenpreis niederschlägt. Und zweitens erhöht sich dadurch die Leistungsaufnahme.Defragg schrieb:2. Speicherinterface doppelt so schnell, Speicherbandbreite hat Luft nach oben
Das ist vollkommen irrelevant. Es zählt die Kombination aus Operationen pro Streamprozessor pro Takt, Anzahl der Streamprozessoren und Shadertakt. Das erste ist bei ATI und nVidia gleich geblieben. Beim zweiten und dritten konnte ATI um 50% und 30% zulegen, was im Endeffekt eine doppelt so hohe Shaderleistung bedeutet. nVidia hingegen konnte nur beim zweiten zulegen, um 87,5%. Der Shadertakt hingegen ist deutlich zurückgegangen, was im Endeffekt knapp 50% mehr Shaderleistung bedeutet. Proportional hat ATI also deutlich mehr zugelegt. Gerade für zusätzliche Sachen wie Physik, KI oder andere GPGPU Spielereien hat ATI hier mehr Reserven. Die X2 wird da in einer eigenen Liga spielen.Defragg schrieb:3. Mehr Shader-Einheiten
Die Füllraten berechnen sich aus dem Chiptakt, nicht dem Speichertakt.Defragg schrieb:Das der GDDR3 Speicher langt belegen doch die Füllraten oder? Verstehe nicht wieso ATI da über 2GHz Speichertakt hat und es dennoch nichts vom Leder zieht...
Sehe ich genau andersrum. Bis auf die maximale Leistung, die ziemlich wahrscheinlich höher bei der GTX 280 sein wird, sehe ich keinen Vorteil bei nVidia. Schlechteres P/L Verhältnis, schlechtere oder maximal gleiche Effizienz, höherer Stromverbrauch unter 2D, weniger Rechenleistung und kein DX10.1. Im Endeffekt ist der GT200 angestaubte Technik für viel Geld mit einem hohen Wertverfall. Das wird sich wohl spätestens bemerkbar machen, wenn die X2 von ATI im Juli/August bzw 55nm Varianten des GT200 im 4. Quartal kommen. Selbst für Enthusiasten dürfte das wenig von Interesse sein. Das ist nicht vergleichbar wie seinerzeit die 8800 GTX oder 8800 Ultra beim Launch.Defragg schrieb:Im Grunde hat die Karte nur Vorteil, bis auf den Preis, der schmerzt.
Nacho_Man schrieb:Wieso keine Alternative ?
Die GTX280 wird absolut sicher 512bit SI haben , da sind sich sogar die Gerüchteküchen einig
bei der Shaderanzahl würde die extrem abloosen mit 256bit
Die HD4870XT kompensiert dass durch DDR5
Fibs schrieb:Hallo Leute,
also mich würde bei der Diskussion einmal nur eines interessieren:
ein "wirklicher" Nachfolger für die GTX/Ultra.
Denn so wie es aussieht, ist sie nach wie vor die einzige Karte, die mit einer großen Speicherbandbreite von 384bit ausgestattet ist.
Die GeForce 9800 GX2 hat ja auch nur 2x256bit.
Die ATI 4870 hat dasselbe Manko, also ist auch sie keine Alternative dazu!
und ob die GTX280 wirklich 512bit Speicherbandbreite haben wird, ist abzuwarten.
Sollte dies der Fall sein, wird es interessant werden *ich hoffe es*
Wisst ihr vielleicht, was in nächster Zeit sonst noch im Hinblick auf GaKa mit großer Speicherbandbreite auf den Markt kommen soll?
Das sind für mich die einzig interessanten GaKa wegen meinem großen TFT Monitor!
lg, Fibs
IgG schrieb:Die 4870 (RV770 XT) mit der GTX 280 zu vergleichen ist wirklich Äpfel mit Birnen.
Eine theoretische Chance (im Hinblick auf die Leistung) hat allenfalls die RV770 X2. Da hat man dann die Qual der Wahl: DX10.1 und X2 Nachteile (Microruckler, Lautstärke, Verbrauch) oder keine X2 Nachteile aber DX10.
Eine theoretische Chance (im Hinblick auf die Leistung) hat allenfalls die RV770 X2. Da hat man dann die Qual der Wahl: DX10.1 und X2 Nachteile (Microruckler, Lautstärke, Verbrauch) oder keine X2 Nachteile aber DX10.
Weil Nvidia 4 Mio gezahlt hat.Nacho_Man schrieb:Wieso steht`s wohl da ?
Nacho_Man schrieb:Schon mal bei AC im Startbildschirm das Nvidia-Logo gesehen ?
Wieso steht`s wohl da ?