ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Die Fermi scheint ist ja im Heaven-Benchmark sehr sehr gut, (ich kenn mich mit der Techik in Fermi nicht aus, aber berichtigt mich wenn ich falsch liege), also vermute ich, dass sie in Aufgaben wo nur eine Sache gemacht werden muss ziemlich gut ist.
Deswegen glaube ich, dass es ne gute GPGPU Karte wird.

Aber was mich interessieren würde:
Nvidia hat mit "Nvidia Geforce" momentan eine Käuferschicht hinter sich, die einfach nur zocken wollen. Für die ist allles was "Nvidia Geforce" ist sehr gut.
Könnte dieser Ruf nicht leiden wenn sie Fermi rausbringen?
 
Nun, die GF100 Karten sollen diversen Gerüchten nach etwa im Bereich der 5850 bzw. 5870 liegen. Mit denen kann man auch gut Spiele spielen, wie ich meine, zumal noch etwas mehr VRAM hinzukommen soll, was für so manchen ein Zusatzargument darstellt (für Oblivion oder HL2 jeweils mit HD Mods etwa).

Einzig, dass man im 3DC-Forum teils befürchtet, dass man an den bisher recht guten Filtern herumpfusche, da die Texturleistung kaum gestiegen bzw. etwas gesunken sein soll (ich hab das jetzt leider nicht genau im Kopf, aber Leute wie y33h@ werden mich schon dahingehend berichtigen^^), könnte meiner Ansicht nach dem Ruf nVidias in punkto Bildqualität wirklich etwas anhaben.
 
@KAOZNAKE: ich habe dich auch schon vorher verstanden, aber ich glaube du mich noch immer nicht^^
zu der zeit, die du meinst, war eine ablöse der gtx260 noch gar nicht nötig und nvidia konnten auf ihre 40nm-gpus warten. mit der 5770 und einführung der g300-reihe wäre aber doch eine billige alternative der jetzt nicht mehr wirtschaftlichen gtx260 erforderlich gewesen. wäre die gts250 nicht bandbreitenlimitiert (vgl. 8800gtx vs. 9800gtx), könnten karten wie die ASUS ENGTS250 OC oder Point of View GeForce GTS 250 EXO die gtx260 beerben und wären dabei deutlich günstiger in der herstellung. ein preiskampf bis in die regionen der 9800gt wäre damit theoretisch möglich.
wäre diese fiktive gts350 im november erschienen, um das vorweihnachtsgeschäft mitzunehmen, wäre sie bis zum erscheinen der gtx480 ganze 5 monate lang nvidias schnellste karte gewesen (rest-lagerbestände der gtx200 bei den händlern nicht berücksichtigt). bis zum erscheinen der gt400-alternative zur 5770 wird nochmal deutlich mehr zeit vergehen (Q2 2010?).
wir können jetzt viel hin und her spekulieren, ob sich das ausreizen des g92 als "lückenbüßer" gerechnet hätte, aber um das wirklich beurteilen zu können, müssten wir schon mehr interne informationen kennen. dass nvidia das bisher nicht gemacht hat, bedeutet ja nicht zwingend, dass ihre entscheidung richtig war.

@Jocotty: wies aussieht, wird der tesla-fermi und der geforce-fermi wohl nicht exakt das gleiche sein. so hat die geforce gtx480 nicht die enorme dp-leistung der tesla. natürlich kann das auch treiberbedingt sein. jedenfalls werden die karten für den spielemarkt schon noch dahin gehend modifiziert und sollten in der höchsten ausbaustufe auch die 5870 schlagen können. allerdings ist atis rv870 sehr viel billiger herzustellen, weil sie diesen spagat zwischen gpgpu und spielemarkt nicht machen müssen. damit ist nvidia im preiskampf gegen ati praktisch chancenlos.
 
Dann binn ich mal gespannt zu welchen Preisen die neuen GF100 nun wirklich auf den Markt kommen und ob dann die Preise der 58XX noch sinken werden.:)
 
Aber was mich interessieren würde:
Nvidia hat mit "Nvidia Geforce" momentan eine Käuferschicht hinter sich, die einfach nur zocken wollen. Für die ist allles was "Nvidia Geforce" ist sehr gut.
Könnte dieser Ruf nicht leiden wenn sie Fermi rausbringen?

:rolleyes: es werden ja nich nur High end Karten für 450 € kommen sondern auch welche für Leute die einfach nur "zocken" wollen war ja beim Release der 200er Karten auch so...
 
@Jocotty

sollten sie die spieler vollkommen vergessen haben, könnte es passieren, dass ihr ruf leidet.
ABER: die architektur ist von ihren grundprinzip auch für spieler ausgezeichnet geeignet.

woran es aber scheitern könnte, sind die probleme beim produktionsprozess, welche wohl zum teil daran liegen, das die architektur und die grundprobleme des 40nm prozesses an einigen stellen ziemlich kollidieren.

ergo: ja der ruf könnte leiden, allerdings vor allem an mangelnder leistung oder zu großer hitze durch probleme im produktionsprozess.

nichts desto trotz ist die architektur eine ausgezeichnete grundlage, auf der wir noch einige hervorragende gamer karten erwarten dürfen (selbst wenn die erste gen noch an problemen leidet ;) )
 
Floh0664 schrieb:
:rolleyes: es werden ja nich nur High end Karten für 450 € kommen sondern auch welche für Leute die einfach nur "zocken" wollen war ja beim Release der 200er Karten auch so...

Ja klar, aber das cutten der einzelnen Abteilungen nach der Meinung viele Leute hier, doch nicht so einfach wie gedacht...

Das die größte Fermi sehr heiß ist und mindestens 450$/€ kostet hat die CT schon zur Ausgabe am 01.02.2010 spekuliert.
 
Das ist aber genau das was bezweifelt werden darf - die Skalierung nach unten ist wohl technisch nicht sinnvoll mit dem Design/Fertigungsprozess und wird ja auch schon mehrfach von Nvidia selber heruntergespielt als "nicht relevant". Bis Karten in 57xx Region auftauchen könnten wäre wohl schon 2011 - und da kann man auch gleich das Design neu machen und die Probleme beheben die ja nun bekannt sind.

Ich denke Nvidia ist schon dabei und hat diese Fermi als Erfahrungswert abgehakt - die kommende Version wird sicherlich die Architektur besser nutzen können und auch wirtschaftlich sinnvoller sein als dies. Da wird Ati sicherlich nicht schlafen und was neues dagegen halten müssen - wer also schon eine schnelle Graka hat der letzten Nvidia Generation, wird wohl am besten fahren wenn er diese überspringt. Lange warten wird man wohl auch nicht müssen auf den Nachfolger. Wer natürlich eine Kuriositäten Sammlung von Grafikkarten machen will und schon ein ATI HD2900 und FX 5800 Ultra in der Sammlung hat und diese komplettieren will, der wird zuschlagen ;)

Oder es gibt bald ähnliche Schlüsselanhänger wie von der G98:
Nvidia_G98_keychain_01.jpg


Ich denke nach diesem ganzen Marketing-Gau wird Nvidia nicht den selben Weg gehen wie Ati mit dem R400 und Intel mit Larabee und einfach nicht releasen.
 
Zuletzt bearbeitet:
@Jocotty: es gibt auch spekulationen von 299$ für die gtx480. bis jetzt steht preislich noch gar nix fest. der preis wird wohl auch nicht zu letzt von der vielbesagten yieldrate abhängen. wenn wirklich je waver nur eine voll funktionstüchtige 512sp-gpu übrigbleibt, wird der preis des endprodukts enorm sein, wenn tsmc die yields wie angekündigt in den griff bekommen hat, kann nvidia vllt in den preiskampf mit amd treten und die 5870 bedrängen (was für uns endkunden natürlich optimal wäre).

@Complication: nur dass so ein fermi-schlüsselanhänger ungleich wuchtiger wäre :D
 
Zuletzt bearbeitet:
Das heruntercutten des chips ist designtechnisch sehr einfach, allerdings nicht physikalisch, sondern als eigener chip.

ich erklär es mal mit ein paar hübschen bildchen:

das ist ein voll fermi:

oooo oooo
========
oooo oooo

preislich noch sinvoll ist es, diesen auch für die nummer kleiner zu verwenden mit bis zu 2 defekten teilbereichen

oooo ooxo
========
ooxo oooo

NICHT MÖGLICH ist es einfach was ABZUSCHNEIDEN um nen kleineren chip zu machen, oder einen mit mehr defekten teilbereihen zu benutzen (ausser natürlich man hat so viele davon, das man so noch ein bisschen deckungsbeitrag reinholen will)

oo|oo oooo
==|======
oo|oo oooo

ABER das design ist so variabel, dass es SEHR EIFACH IST einen kleineren chip daraus zu designen indem man einfach einen teil weg lässt und den verwaltungsbereich DURCH NEUDESIGN ANPASST

ooo ooo
======
ooo ooo

und auch dort kann ein kleinerer chip mit defekten teilbereichen genutzt werden

oxo ooo
======
ooo oxo

auf diese weise ist der prozess des chipdesigns für kleine ableger sehr einfach gehalten. ABER es lässt nicht zu, das man ihn einfach nen CM kürzer schneidet weil der teil defekt ist ;)

(*g* ich mag die bilder XDDD )
 
Es ist ebenso unwahrscheinlich, dass die 480 GTX mit einer Yieldrate von einem Chip pro Waver released wird, wie der Preis von 299 €. Ich denke zwar schon, dass Nvidia und TMC erhebliche Probleme haben, so dramatisch, wie oft befürchtet und oder herbe igesehnt, wird es aber letztendlich dann auch nicht sein.

Allerdings wird man schon davon ausgehen können, dass die Karten zum Release in nur sehr geringen Stückzahlen verfügbar sein werden.

Was die Leistung der Karten angeht kann man doch zur Zeit wirklich keine zuverlässige Aussage treffen können ebenso wenig über das Preis- Leistungsverhältnis.
 
Ja dass dieses Design leicht zu skalieren wäre war ja auch noch meine Meinung als ich die Architektur erstmals gesehen habe - doch wenn ich dann über lege wie viel Leistung noch bleibt wenn die Hälfte der Polymorphen Engines fehlen, ist da schon Schicht im Schacht.
Und schon dir grösste wird ja 2 der PE weniger haben (14 statt 16) Ich gehe hier von den Nvidias Zahlen aus.

Und nun stellt sich heraus dass Nvidia zu wenig Redundanzen auf dem Chip hat um die grosse Karte wie geplant performen zu lassen - das bedeutet dass auch zu wenig Redundanzen da sind um kleiner zu skalieren - oder wie würdest du das interpretieren dass Nvidia im 57xx Sektor dieses Jahr keine neue Karte raus bringen "will"? Von darunter gar nicht gesprochen. Einen Preiskampf mit der GF100 kannst du vergessen und auch dass die HD5xx hier aufgrund von Konkurrenzdruck billiger werden dieses Jahr :(
 
@Jelais99: das sind nur die beiden extrem-szenarien. das mit dem einen chip pro waver (und das die produktion des fermi bereits eingestellt sei) stammt vom viel diskutierten charlie, das preisgerücht aus einem niederländischen forum (wurde in diesem thread vor einigen seiten verlinkt)

beides ist tatsächlich sehr unwahrscheinlich, die wahrheit wird sich irgendwo dazwischen befinden. ich rechne auch mit zunehmend besseren yields und damit verbundenen sinkenden preisen im laufe des jahres.
 
@ Complication
Danke für den Test!
Aber das Ergebnis ist ja doch so wie schon von mir gesagt. Selbst die OC-Karte von Sapphire ist mit weiterem OC in den meisten Benchmarks hinten - ok, cherrypicked auch mal ganz leicht vorne oder auf gleichem Level, aber wohl doch generell hinten.
Mal gar nicht davon gesprochen, dass man die 5870 im Catalyst auch mal eben mit ATI Vorgabe leicht übertakten kann, was wohl dann den Abstand wieder herstellen dürfte.
 
Mal kurz ne Frage zwischendurch - bei ATI bekomme ich für die HD5K ein StreamSDK mit OpenCL Unterstützung, bei Nvidia ein CUDA-SDK mit OpenCL-Unterstützung - gibt es abgesehen von Apple vielleicht auch jemanden, der mal ein OpenCL-SDK veröffentlichen will, das beides unterstützt? Ich mein, wo ist der Sinn von OpenCL, wenn ich dann doch für beide Hersteller unterschiedliche SDKs brauche.
 
@Lars
Ich weiß ja nicht ob du die Testergebnisse falsch interpretierst, doch der Tester schreibt genau das Gegenteil im Fazit: bei 2 von 3 Benchmarks ist die 5850 OC vorne. (auch wenn ich das eher als Gleichwertig bezeichnen würde bei den geringen Unterschieden)

Hast du erwartet die 5850 kann Wasser in Wein verwandeln oder kennst du eine Grafikkarte die schneller ist als ihr nächst höheres Modell wenn man beide OC?
 
@Complication

Also ich hatte den aktuellen Fermi in zwei chipgrößen erwartet 16 kluster und 14 kluster als große und 12 kluster und 10 kluster "kleinen"
(mit der texturfüllrate kann ich dir übrigens nciht zustimmen. denn:
gtx285: 51,8 gtexel/s
gtx260: 36,9 gtexel/s
gts250: 47,2 gtexel/s)
ANGEBLICH
gtx480: ca60 gtexel/s
gtx470: ca52,5 gtexel/s (2 deaktivierte kluster)
gtx46(?)0: ca45 gtexel/s (4 deaktivierte kluster/kleiner chip)
gts45(?)0: ca37,5 gtexel/s (6 deaktivierte kluster/kleiner chip 2 deaktivierte kluster)
aber das nur mal als rechenspiel am rande ;) )

jetzt kommt das große ABER:

ABER das war vor den problemen und der absage an die mittelklasse.

aktuell erwarte ich folgende größen: 16, 14 und 12 kluster (letzterer allerdings NUR für den fall, das sie restverwertung betreiben KÖNNEN, was allerdings aktuell nicht so aussieht)

also rechnen wir doch einfach mal fröhlich nach:

was erwartet uns mit dem gf100 refresh (abgesehen von besseren yields)
1. mehr shader (standard antwort)
oder
2. mehr takt (wahrscheinlicher)
3. bessere tesselationsleistung (wahrscheinlich)
4. mehr speicher (wahrscheinlich)
5. höhere texturraten (wahrscheinlich)
6. mehr vram (die zahl kann auf dem prospekt nie gruoß genug sein XD )

wie viel zeit bräuchte nv dafür? a3 ist durch, sollte kein a4 kommen könnten sie das b design anfangen, gehen wir doch der einfachheithalber von märz aus.
für das b1 bräuchten sie ca 6 monate sind wir im september
bei dem gut funtionierenden prozess des 40 nm kommt vermutlich ein b2 sind nochmal 2 monate sind wir anfang november für gtx 475 und 485 (high end) meiner meinung nach werden wir an dieser stelle vielleicht auch eine gtx 465(?) und eine gtx 455(?) (performance) zu sehen bekommen. weitere 2 monate später (januar 2011) dürften wir eine mittelklasse und eine lowend lösung zu sehen bekommen, dann vermutlich schon in 28 nm als versuchskaninchen

(wie immer grobe denkfehler bitte mitteilen ;) )

EDIT: tja wenn man dann mal liest was man so schreibt ... erm hat NV gesagt sie bringen keine MITTELKLASSE? oder keine PERFORMANCE KLASSE?

EDIT2:
NVIDIA einschätzung ihrer karten
low end = G
mainstream (mittelkasse) GT
performance GTS (GTS beginnt bereits bei der 240)
high end gtx

wenn also keine mainstream oder mittelklassekarten kommen sollen würden sie trotzdem dieses jahr alles bis runter zu 440 abdecken wollen ...
 
Zuletzt bearbeitet:
Status
Für weitere Antworten geschlossen.
Zurück
Oben