Nvidia Roadmap-Umriss für 1H 2008

riDDi schrieb:
aber 8800 gt, die schneller als eine gts ist und ein re-release der gts machen sinn oder wie?
Dass die Namen genauso schlecht gewählt sind, ist jedem klar. Darum wir auch meist der Zusatz G92 verwendet ;)

Bei 8900GT, 8900GTS und 8950GX2 hätte sich niemand beschwerd.
 
@Kasmopaya: in hl2 ist die 7er immerhin bis 56% schneller... wenn wir schon best-case annehmen wollen.
klar wars mit der gf8 der größere sprung. g80 ist ja auch völlig irrwitzig. ein chip der so groß ist, dass der io ausgelagert werden musste, weil sonst wohl die yields im keller wärn.
ähnlich wie damals mit gf6 und x800, die damals derart übertrieben waren, dass es monate gedauert hat bis man sie überhaupt kaufen konnte (und nvidia die ultra sogar aus dem programm strich, was aber irgendwie niemandem auffiel :P geschweige denn die ominöse, niemals aufgetauchte ultra extreme ;)).
wenn man so einen chip entwickelt kann man nicht ein jahr danach wieder die leistung verdoppeln. selbst wenn man den immens gestiegenen entwicklungsaufwand außer acht lässt, das machen die dinger thermisch einfach nicht mehr mit.

GDDR 4 ist theoretisch sparsamer, und schneller aber in der Praxis bringt VRam speed so gut wie keinen fps Gewinn
weil deine annahme auf der 2900xt mit dem irrwitzigen 512bit breiten interface fußt. da könnteste schnöden ddr2 nehmen und hättest immer noch über 50 gb/s an bandbreite. g92 und rv670 brauchen hohen ramtakt, weil die bandbreite sonst limitiert.

tAk schrieb:
Wieso denn nicht?
Wenn man die GX2 jetzt einfach noch in die 8800er Serie "pflanzt" macht das durchaus sein.
Wenn die GX2 wirklich nur 30% schneller sein sollte als eine 8800Ultra, hätte eine 9800GTX dazwischen ja praktisch gar keine Platz mehr resp. wäre überhaupt nicht gerechtfertigt.
eben. WENN. nur redet derzeit niemand über noch mehr 8800er, schon garnicht von 8900er. 9800 ist in aller munde. und wenn man sich besieht, dass auch die gf7 nicht soo der überflieger war (ja ich gebs zu -.- und jetzt schluss), wäre das nicht das erste mal und entspräche somit dem muster.

@Sgt.Speirs: das wäre ja auch sinnvoll gewesen. nur war die 8800 so wunderbar erfolgreich, auf der welle, möchte man wohl so lange wie möglich reiten.

ps: wenn nvidia jetzt noch mehr 8800er bringt hat dere marketing einen an der klatsche.
pps: irrwitzig ist ein schönes wort.
 
Zuletzt bearbeitet:
riddi

wie was muster, normalerweise sollte das high-end produkt doch als erstes vorgestellt werden?! war es nich so bisher?!

was für ein muster erkennst du denn XD
 
@riDDI "in hl2 ist die 7er immerhin bis 56% schneller... wenn wir schon best-case annehmen wollen."

ha! Wenn du so pingelig bist, bin ich es auch die GTX ist ja nicht die schnellste GF8, ergo hat die Ultra 200-300% mehr Power als die GF 7 :D

"g80 ist ja auch völlig irrwitzig" richtig darum bin ich auch von einer GF Gainward 5900 GS auf eine total irrwitzige Karte(GTX) umgestiegen, bei der jeder bevor es Crysis gab, gesagt hat: Was will ich mit soviel Leistung überhaupt anfangen :rolleyes:
Ich wusste ganz genau das man die letzte Generation der directX 9 Karten nicht kaufen sollte, wie es damals schon bei Ende direktx 8 war, als die Radeon 9700Pro(der Nachfolger der legendären R300 ist: 8800GTX) einen extremen Leistungsschub brachte. Bin mir auch die ganze Zeit schon im klaren das es diesen Leistungsschub nicht so schnell wieder gibt(warscheinlich erst Anfang DX 11). ;)

"GDDR 4 ist theoretisch sparsamer, und schneller aber in der Praxis bringt VRam speed so gut wie keinen fps Gewinn"

Meine Annahme fußt auch auf der 2600XT GDDR4 und Radeon HD 3870(die bei load auch nicht wengier verbraucht als Nvidia), im allgemeinen übertakte ich meinen VRAM nie, da ich die Reserven für Shader oder Core verwende und es bei mir noch nie einen FPS Gewinn gebracht hat, schick mir bitte mal einen link mit Benches die mir zeigen das sich GDDR4 irgendwie lohnt ;)
 
Zuletzt bearbeitet:
Nur als Beispiel:

Die HD3870 ist bei einem Takt von 669/1125 (Core/Shadertakt einer HD3850) kaum langsamer als mit den originalen 777/1125, aber bedeutend schneller als die HD3850/512 mit 669/830. In FEAR liegt die runtergetaktete HD3870 dank der über 30% höheren Bandbreite knapp 25% schneller!

Und warum lohnt sich GDDR4 nicht? Hochtaktendender GDDR4 bei 256 Bit ist meist schnell genug und billiger als GDDR3 mit 384 oder gar 512 Bit.
Zumal GDDR4 bei weniger Spannung höher takten kann. Das ist ja wohl ein eindeutiger Vorteil.

cYa
 
Zuletzt bearbeitet:
Es ist immer abzuwägen, was sich schlussendlich billiger zu bewerkstelligen lässt: Ein breiteres SI oder halt höhergetakteter Speicher. Natürlich kommt es auch auf die Architektur der GPU selbst an, resp. wie gut sie mit entsprechenden Bandbreiten skaliert.

mFg tAk
 
Offentsichlicht ist ein schmaleres SI samt hoch taktendem Speicher billiger, sonst käme es nicht bei den meisten Mid-Range Karten zum Einsatz und daher ist die HD38x0 (zusammen mit den 55nm) deutlich billiger als die HD2900XT, auch bei der HD2900Pro/256Bit sieht man es imo.

cYa
 
So ein Schwachsinn. Bei Battlefield 2142 bringt SLI extrem viel. Ich habe doppelt so viele FPS ggü Einzel GPU.

Und seit den neueren Treibern, kann man ja den alternativen Rendering Modus 2 wählen.

Wenn man natürlich auf Standard Settings laufen lässt, ist in so manchen Games Einzel-GPU voreingestelllt. Wenn Du da aber auf AlternativRendering 2 stellst, dann macht dasmindestens 20-30 Fps aus. In einigen Games sogar bis 50FPS mehr.

Ich habe in Bf2142 mit meiner 7950GX2 konstant 95-100 FPS. Settings = 1152 x 864 alles auf Maximum, 4xAA

Es ist schon so, dass anfangs SLI nur via nHancer richtig konfigurierbar war. Aber seit einiger Zeit sind die Treiber massiv besser geworden.

> Desktop > rechte Maustaste > nVidia Systemsteuerung > 3D Einstellungen > GameProfile > Und da vor Beginn eines Spiels die veränderungen setzen.


- Einzel Display
- Alternatives Rendering 2
- Bei Games, wo man knapp FPS hat, die Image Quality auf > Hohe Leistung stellen und diverse Filter auf Enabled stellen.

Wenn man im Programm "nHancer" eine Option verändert, wird einem genau erklärt, was dies nun zur Folge hat. Vielfach gewinnt man einige Leistung mit nur geringem Qualitätsverlust. Wie zum Beispiel "Anistrophe Mip Filter Optimierung", "optimierung des anistrophischen Musters" usw.

Jedenfalls kann man einiges an FPS rausholen, wenn man vor dem Spielen erst das Profil konfiguriert. Manchmal muss man halt erst ein neues erstellen. Aber wenn man's ein paar Mal gemacht hat funktioniert das super.


Vor allem bei Games mit UE3 bringt's AR2 auch viel. In der Regel ist Alternativ Rendering die sichere Methode, die durchwegs mehr FPS bringt, aber sicher nicht weniger.
 
Zuletzt bearbeitet:
Abend ich habe gerade einen interessanten Artikel gefunden. http://www.hardware-infos.com/news.php?news=1839

Ich finde es würde Sinn machen, dass die 9-Serie nur eine Übergangsgeneration ist und, dass die wirklich ,,neue'' Generation erst im Herbst erscheinen wird. Wenn es wirklich so ist und ATIs 4000 Reihe schon im Juni erscheint, dann hat ATi/AMD einen großen Vorsprung gegenüber Nvidia.
 
Zurück
Oben