ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
Airbag schrieb:
Aber man kann erwarten, dass sie sich unter Alternativluftkühlern ,leise machen lässt, was bei Kalibern ala GTX280/85 auch nur bedingt möglich ist.

Das liegt zum Teil aber auch daran, dass viele meinen ihre Grafikkarte zwanghaft auch unter Volllast unter 80°C halten zu müssen. Auch 90°C sind für aktuelle Grafikkarten kein Problem, und eine GTX 285 unterhalb dieser Temperatur zu halten (FurMark mal ausgenommen) dürften Alternativkühler schon recht leise schaffen.
 
Lars_SHG schrieb:
Ich habe bis jetzt noch keine 5850 gesehen, die auf die Leistung einer 5870 übertaktet werden konnte - ohne Äpfel mit Birnen zu vergleichen (Wasser / Luft Kühlung).

Die 5850 erreicht bei 950MHz die technischen Werte der 5870. Im Spielaltag erreicht die 5850 die praktische Leistung aber schon früher, im PCGH Test war die 5850 bei 830 MHz so schnell wie die 5870.


Sollten aber die News von SemiAccurate stimmen, kann sich nVidia gleich selbst begraben. 5% mehr Leistung bei einem vorraussichtlichen Preis von 450-500€ und einer enormen Wärmeentwicklung. Das wären keine guten Verkaufagumente.

Aber ist ja nur ein Gerücht, leider ists noch ein wenig bis zu den ersten unabhängigen Reviews.
 
Wo nehmt ihr denn bitte immer den Preis her? Versteh ich nicht. Es gab nicht eine halbwegs glaubwürdige Meldung in Bezug dessen. Und das mit dem begraben sieht man ja imemr wieder an Nvidias Quartalszahlen. Die werden seit einem Jahr schon totgesagt ...

Komischerweise bringen AMD-Fans genau die gleichen Punkte, die man hier den Nvidia-Anhängern vorwirft, immer, wenn es um das Thema CPUs gibt. Aber bei Grafikkarten kann man eben auch mal auf einem anderen rumhaun, während man sich bei CPUs immer mit den Intel-Jüngern streiten muss. Ist schon putzig, wie man einem Unternehmen und deren internen Strukturen und Machenschaften, egal ob AMD, Intel oder Nvidia, die keiner hier auch nur ansatzweise wirklich kennt, so zujubeln kann, wie beispielsweise einem Fußballverein. Dass die letztendlich alle nur euer Geld wollen, macht das ganze Prozedere für mich noch unverständlicher. Aber ich muss wohl mal rausgehen und dem Verkehrsverbund zujubeln, da er mich von A nach B bringt, aber letztendlich mir völlig unbekannt ist ist und dafür auch mein Geld will. Ist doch irgendwie recht ähnlich ;)
 
Das wären keine guten Verkaufagumente.

Wenn dies stimmt, wäre wohl anzunehmen, dass nVidia über den Preis attraktiver sein will. Das würde insofern dazu führen, dass die ATi Karten im selbigen sinken werden. Was ich als Verkaufsargument ansehen würde. Für ATi allerdings.^^

Ich kann mir eigentlich nicht wirklich vorstellen, dass man bei einer (von mir ad hoc vermuteten) Entwicklungszeit von knappen fünf Jahren so gegen die Wand donnern kann, ohne irgendeine Art von Dämpfung aufweisen zu können. Insofern sagt der Artikel von Charlie einiges aus und bringt mich doch um nichts weiter.

@Volker

Weil jeder recht behalten will. Einer sagt: "Firma A hat es drauf." und der nächste widerspricht ihm. Keiner will klein beigeben und die Fronten verhärten sich. Dann kommen ein paar andere dazu und schließen sich auch der ihnen zusagenden Gruppe an. Fertig sind zwei Fanboyfraktionen.

Im Übrigen guter Vergleich von deiner Seite. Aufgrund seiner Alltagsnähe vermutlich sogar für so manchen Scheuklappenträger nachvollziehbar. :)
 
Zuletzt bearbeitet:
KAOZNAKE schrieb:
Wieder mal ne News zu Fermi auf SA

http://www.semiaccurate.com/2010/02/20/semiaccurate-gets-some-gtx480-scores/

Kurz: 512 Shader 625MHz Fermi ca. 5% schneller als Cypress. :/

Naja, immerhin schneller, dann bekomm ich Cypress ja ald fürn Appel und n Ei

lustigerweise will charlie uns hier werte verkaufen, nachdem die 480 doppelt so schnell ist bei tesselation, während nvidia mit ihren cherry picked zeugs selbst nur 60% angibt. irgendwas haut da nicht wirklich hin :D.
 
acc schrieb:
lustigerweise will charlie uns hier werte verkaufen, nachdem die 480 doppelt so schnell ist bei tesselation, während nvidia mit ihren cherry picked zeugs selbst nur 60% angibt.
NV spricht selbst von 1,8-facher Tessellation-Leistung in einem cherry picked 60-sec-Ausschnitt der Heaven-Demo:

nvidia_fermi_slide_06c1m2.jpg
 
Ich blick bei dem Aufbau des Fermi nicht ganz so durch. Hat ein GF100 mit nur 448 Shadern die gleiche Anzahl an Polymorph Engines, also unterscheidet sich die Tesselation Performance zwischen einer 512 Shader GF100 GPU, und einem ?teildefekten? 448 Shader Exemplar?

Ebenso frag ich mich, wie die Tesseleation Performance dann bei Karten aussehen würde, die auf einen abgespeckten GF100 basieren, sofern es solche Ableger überhaupt gibt? Ich mein ich hatte gelesen das eben hier das/ein Problem im Fermi liegt, weil bei nur 3 oder 2 GPCs damit auch die Tesselation Performance abnimmt?

Und ebenso ist es interessant zu erfahren, wie sich deren Tesselation Lösung innerhalb von Spielen anstellen, wenn die Polymorph Engines mehr tun, als mit Tesselation ausgereizt zu werden.

Ich hoffe es gibt bald Bechmarks, ich möcht endlich wissen ob es sich lohnt zu warten (wegen der Karte selbst, wegen den Preisen sowieso). :-(
 
@ milamber!

Der Vollausbau basiert auf 16 SMs, besteht aus 2x 16 ALUs, mit je einer Polymorph-Engine pro SM. Bei 448 ALUs sinds ergo nur 14 SMs und daher auch 14 Polymorph-Engines. Und ja, Gerüchte sprechen von einem GF104 als halbierten GF100 mit der Leistung einer HD5850.
 
Sprechen die Gerüchte auch etwas über den avisierten Preis?
 
@y33H@: Danke für die Folie, da weiß man wenigstens, worüber man diskutiert.



milamber! schrieb:
1. Ich blick bei dem Aufbau des Fermi nicht ganz so durch. Hat ein GF100 mit nur 448 Shadern die gleiche Anzahl an Polymorph Engines, also unterscheidet sich die Tesselation Performance zwischen einer 512 Shader GF100 GPU, und einem ?teildefekten? 448 Shader Exemplar?

2. Ebenso frag ich mich, wie die Tesseleation Performance dann bei Karten aussehen würde, die auf einen abgespeckten GF100 basieren, sofern es solche Ableger überhaupt gibt? Ich mein ich hatte gelesen das eben hier das/ein Problem im Fermi liegt, weil bei nur 3 oder 2 GPCs damit auch die Tesselation Performance abnimmt?

3. Und ebenso ist es interessant zu erfahren, wie sich deren Tesselation Lösung innerhalb von Spielen anstellen, wenn die Polymorph Engines mehr tun, als mit Tesselation ausgereizt zu werden.

1. Siehe hier

"Die Vollausstattung des GF100 besteht aus vier GPCs, die wiederum jeweils aus vier Streaming-Multiprocessors zusammengesetzt sind"

"Um den Workload besser bewältigen zu können und damit die Auslastung aller Einheiten zu gewährleisten, verfügt jeder Streaming-Multiprocessor auf dem GF100 über eine „PolyMorph Engine“ – es gibt also 16 Einheiten davon."

Bezogen auf die 512 Shader Variante. Bei der 448 sinds "nur" noch 14 logischerweise 448/32=14), je mehr Fermi beschnitten wird, desto weniger werdens dann auch. Genau da seh ich das Problem, spätestens bei der Hälfte der Cores ist nicht mehr genug Power da für die Grafik, Tesselation UND Physx (muss ja auch noch ne?)

Wenns überhaupt beim vollen Fermi noch reicht für alles.

2. Siehe 1. Ich will nicht sagen nichts ist unmöglich aber NVIDIA sagt ja selber:

"At the same time, NVIDIA implied that it has no big plans for the budget and mid-range segments since these users "hardly demand new functionality."
"

Vermutlich wird Tess. auf Midrange Karten per Treiber deaktiviert. Ist aber nur ne Schätzung von mir.

3.: Tja, da Charlie 5% Vorsprung von Fermi auf Cypress angibt, bezieht sich darauf:

"The games tested DID include DX11 games, and those are still in the 5% range. Heaven uses tessellation in a way that games can not, Heaven can utilize far more shaders for tessellation than a normal game can, they have to use them for, well, the game itself. The performance of Heaven on GTX480 was not reflected in any games tested by our sources, DX9, 10, 10.1 or 11."

Daran sieht man, dass da vermutlich nicht viel über bleibt.

Und wir reden hier vom 512 Shader Fermi, der lt. Charlie nur in einer Stückzahl auf den Markt kommen wird, die AMD täglich an Cypress verkauft.


Vielleicht sollte ich mal das Risiko eingehen und nen Fermi 512 ordern, um ihn dann fürn tausi auf Ebay zu verkloppen :evillol:


y33H@ schrieb:
Und ja, Gerüchte sprechen von einem GF104 als halbierten GF100 mit der Leistung einer HD5850.

??? Is mir völlig neu. Technisch gesehen wär das ein Wunder, wenn der Vollausbau Fermi grad mal auf 5870 Niveau kommt, dass ein halber Fermi auf 5850 Niveau geht? Ich will mich ja nicht zu weit aus dem Fenster lehnen, aber das halte ich für unmöglich.

Zudem sagt ja NVIDIA selber, sie bringen (erstmal) keine Midrange, und die 448 Fermi karte kanns auch nicht sein, da diese deutlich mehr als "halbiert" ist.

Tapeout gabs jedenfalls noch keins, von keinem einzigen Fermi-Ableger
 
Zuletzt bearbeitet:
@1. Ja, da hab ich auch gelesen, und der allgemeine Aufbau, ist da auch verständlich beschrieben, aber mir war nicht klar was genau bei einem Teildefekten Exemplar alles deaktiviert wird. Ich hab immer nur von 448 Shadern gelesen, konnte mich nicht an eine Aussage über die Streaming-Multiprozessor errinern.

2. Düfte so eine Midrange Karte mit deaktivierter Tesselation dann überhaupt noch als DX11 Komponente angeboten werden?

Von Tag zu Tag werden in meinen Augen die Wolken über den GF100 ein wenig düsterer ... :-/

Edit: Ich lese grad die letzten Infos die man so findet, und das hört sich ja echt übel an.
 
Zuletzt bearbeitet:
milamber! schrieb:
2. Düfte so eine Midrange Karte mit deaktivierter Tesselation dann überhaupt noch als DX11 Komponente angeboten werden?

Von Tag zu Tag werden in meinen Augen die Wolken über den GF100 ein wenig düsterer ... :-/

Edit: Ich lese grad die letzten Infos die man so findet, und das hört sich ja echt übel an.

Gute Frage :D

Vermutlich nicht, dann vergiss was ich gesagt habe.

Vielleicht zaubert NVIDIA ja doch noch ein Hässchen ausm Zylinder, allein, ich glaub nicht mehr dran. Mein vermuteter Februar Release hat sich fast in Luft aufgelöst, vielleicht kommt ja am Montag oder wann das sein sollte (Die Twitter oder Facebook oder whatever Ankündigung) die Bombe.

Juhu, 5870 fürn Appel undn Ei!!
 
Glaube nicht, dass es sich lohnt auf den Fermi zu warten nur weil dann die Preise fallen, eher dann wohl edann weil neue ATi-Karten kommen bzw. Verfügbarkeit steigt.
 
Lübke schrieb:
@r0b-tbo: der releasetermin stand noch überhauptnicht fest im jahr 2009 (nda). das mit november war eine info, die einige gutinformierte seiten wie cb nur wage angedeutet haben auf auskunft von nvidia. da aber nvidia selbst noch nicht die problematische entwicklung kannte, woher sollen dann bitte charlies tolle informationen stammen?
einziger logischer schluss: er hats frei erfunden und glück gehabt, dass im Nachhinein probleme aufgetreten sind, mit denen nvidia selbst nicht gerechnet hat.

die alternative wären hellseherische fähigkeiten, aber das du wohl kaum glauben oder?^^
Die selben Probleme hat Ati schon 2007 vorausgesehen und hat schon im Design zur Evergreen Serie dagegen Vorsorge getroffen mit doppelten "vias" um den Stromverbrauch in den Griff zu bekommen. Dies geht aus dem Artikel bei Anand hervor der auch schreibt, dass Ati eben traditionell bei der Fertigung die größere Kompetenz hat, während Nvidia die grösseren Kompetenz bei der Architektur - man muss diese beiden Dinge "nur" zusammenbringen damit ein funktionierender Chip daraus wird.
http://www.anandtech.com/video/showdoc.aspx?i=3740&
Ever since NV30 (GeForce FX), NVIDIA hasn’t been first to transition to any new manufacturing process. Instead of dedicating engineers to process technology, NVIDIA chooses to put more of its resources into architecture design. The flipside is true at ATI. ATI is much less afraid of new process nodes and thus devotes more engineering resources to manufacturing. Neither approach is the right one, they both have their tradeoffs.
[...]
Going into the fall of 2007 ATI had a rough outline of what the Evergreen family was going to look like.
[...]
This is also super important to understand, because it implies that at some point, NVIDIA made a conscious decision to be late with Fermi. ATI wasn’t the only one to know when DX11/Windows 7 were coming. NVIDIA was well aware and prioritized features that delayed Fermi rather than align with this market bulge. GPUs don’t get delayed without forewarning. AMD risked being late in order to make a smaller chip, NVIDIA risked being late to make a bigger one. These two companies are diverging.
AwesomeSauce schrieb:
Tesla = bis zu 448CC, GeForce = bis zu 512CC
Das hast du frei erfunden
http://www.heise.de/newsticker/meld...esla-Karten-mit-Fermi-Architektur-891620.html
Nvidia reduziert Kernzahl der ersten Tesla-Karten mit Fermi-Architektur
Die ersten beiden auf der Supercomputer-Konferenz SC09 fürs zweite Quartal 2010 angekündigten Compute Boards mit Fermi-Architektur, C2050 und C2070, werden offenbar mit weniger Rechenkernen arbeiten, als im GPU-Chip vorhanden sind: 448 der 512 Kerne sollen aktiv sein. Das enthüllen die Board-Spezifikationen, die man bei Nvidia inzwischen herunterladen kann.

Die Einschränkung könnte thermische Gründe haben [...]

Lars_SHG schrieb:
Ich habe bis jetzt noch keine 5850 gesehen, die auf die Leistung einer 5870 übertaktet werden konnte - ohne Äpfel mit Birnen zu vergleichen (Wasser / Luft Kühlung).
Hier ist ein kompletter Testbericht mit reichlich Benchmarks der Sapphire Toxic 5850 OC auf 5870 Leistung:
http://www.anandtech.com/video/showdoc.aspx?i=3746
We should note that at these clockspeeds we’re some 23% faster than the 5850’s GPU clock speed, and 17% faster than its memory clock speeds. Thus at these maxed out levels, our further overclocked 5850 Toxic is 17% faster at Crysis, 10% faster at Battleforge, and 18% faster at Battleforge. What’s particularly noteworthy is that the overclocked Toxic actually manages to best the 5870 here, even though the 5870 has another SIMD to work with. This indicates that Battleforge it bottlenecked by the ROPs, or at some point in the fixed-function pipeline.
Schreibfehler - soll Dawn of War II heissen

@KAOZNAKE
Sehr schön zusammengefasst :)
Eines bleibt noch zu ergänzen bzgl. der Tessellation Leistung:
Die "Tessellatoren" haben noch vier weitere Aufgaben ausser Tessellation - die können sie aber nicht gleichzeitig erfüllen - also wird es wohl davon abhängen was sonst noch anliegt wie Tessellation performt und auch die anderen Funktionen, da sie sich gegenseitig Rechenzeit weg nehmen können - ich bin gespannt wie das gelöst sein wird und ob die Leistung auch in ganzen Spielen zum tragen kommt und nicht nur in ausgewählten Szenen:

polymorph.png
 
Zuletzt bearbeitet:
milamber! schrieb:
Düfte so eine Midrange Karte mit deaktivierter Tesselation dann überhaupt noch als DX11 Komponente angeboten werden?
Nein, DX11 schreibt Tessellation in HW vor.
 
@KAOZNAKE: du hast mich tatsächlich falsch verstanden:
Also nochmal: NVIDIA wollte einen GT214 bringen auf 40nm UND mit GDDR5 (also quasi ein "G92c" vermutlich auf GT200 Architektur). Ist das so schwer zu begreifen? Ein G92b mit GDDR5 stand zu 99% nie zur Diskussion.
ich habe den g92 in 55nm mit neuem speicherkontroller als übergangslösung bis zur realisierbarkeit von 40nm gemeint. das hatte ich doch geschrieben:
ein shrink auf 40nm wäre, sofern er reibungslos möglich wäre sinnfrei, weil es deutlich höhere kosten verursachen würde und den sinn dieser übergangslösung ad absurdum führen würde, da die probleme der 40nm ja den bedarf für diese karte erst gebracht haben
 
Zuletzt bearbeitet:
Lübke schrieb:
@KAOZNAKE: du hast mich tatsächlich falsch verstanden:

ich habe den g92 in 55nm mit neuem speicherkontroller als übergangslösung bis zur realisierbarkeit von 40nm gemeint. das hatte ich doch geschrieben:

Hmmm OK, war ein Missverständnis, aber trotzdem:
Wann hätten sie das Teil bringen sollen?

Wie gesagt GT214 ("G92c" mit GDDR5 in 40nm) hätte IIRC im Mai 2009 so ca. launchen sollen. Davor war der G92b ja noch relativ aktuell und in Form der 9800GTX/+/GTS250 auch performant. Die GTS 250 kam im März 09 raus.

Zu welchem Zeitpunkt hätte deiner Meinung ein G92b mit GDDR5 Sinn gemacht? Zwischen März und Mai?

Wenn G92b+GDDR5 so viel bringen hätte können, hätte man den GT200 gar nicht erst bringen brauchen, denn die GTS 250 ist kaum langsamer als ne GTX260.

https://www.computerbase.de/2009-03/test-nvidia-geforce-gts-250/20/#abschnitt_performancerating

Ich frage nochmal: Sinn?

Wenn ja, wo ist das Teil? ;)

Ich darf dich nochmal darauf hinweisen:

Erwarteter Launch "G92c" aka GT214: Mai 09 +-2 Monate.
Release GTS250: März 09

Dazwischen max. 4 Monate für "Deine" Karte, die vielleicht auf GT200-Niveau gekommen wäre.

Allerdings wollte NVIDIA die ganze Zeit den G92c haben, bis zum Mai oder auch noch 2 Monate später wäre das Ding (G92b GDDR5) einfach sinnlos gewesen (weil ja G92c "kurz vor Release stand", HD5000 gabs ja da auch noch nicht)

Und danach wars nicht mehr möglich, sowas rauszubringen, einfach weil Mai (als NVIDIA klar gewesen sein muss(müsste), das GT214 nicht funktioniert) +6 Monate November 09 bedeutet hätte, wenn überhaupt.


Also nochmal in einem Satz:

"ich habe den g92 in 55nm mit neuem speicherkontroller als übergangslösung bis zur realisierbarkeit von 40nm gemeint. "

40nm war für den Zeitraum des Release der GTS250 geplant, eine Übergangslösung war planungsgemäß nicht notwendig.
Hier hätte die 9800GTX+ höchstens diese Rolle übernehmen können, aber die gabs ja nicht mal (wirklich) mit 1GB RAM, geschweige denn mit GDDR5.

Ich hoffe ich konnte mich verständlich machen. :D
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben