Bericht Bericht: Nvidia GF100: Technische Details

@Unyu:
Bei einem (wahrscheinlichen) Performance-Vorsprung von maximal 20% gegenüber der 5870 und einem zu vermutenden Patt mit einer 5890, warum bitte sollte ich das Fermi-Topmodell einer Hemlock-Karte gegenüberstellen?

Das die 40$ Unsinn sind, das ist vollkommen klar.
Aber schon bevor es die Vergleiche mit Fermi gab wurden 65$ eher als wahrscheinlicher Preis gehandelt.
Denn im selben Moment in dem du Cypress mit 80$ anschreibst musst du Fermi auf mindestens 160$ hochstufen.
Und da es eigentich nur um den Vergleich geht, die Endkundenpreise richten sich bekanntlich nach selbigem, ist es im Endeffekt egal ob du 65/130 oder 80/160 annimmst.
Nur 80/130 ist genauso falsch wie 40/200...

Festhalten können wir jedenfalls, dass eine Cypresskarte in der Herstellung ca. 140$ kostet, wo eine Fermikarte bei mindestens 210$ aufschlägt.
Und damit geht nV halt einfach die Marge flöten, selbst wenn man teildefekte Chips als GTX 360 verkaufen kann...

Und natürlich ist jede GTX 3XX besser als ein GT200. Sowohl von der Leistung als auch von den Verdienstmöglichkeiten.
Denn ein paar Leute gibt es immer, die einen zu hohen Preis zahlen, solange das Produkt neu ist.
Ändert aber nichts daran, dass nV mit Fermi in große Schwierigkeiten kommen wird.
Insgesamt sieht es einfach nicht gut aus für nV, was auch für mich schlecht ist, obwohl meine nächste Karte wohl von ATI kommt.
Von daher wünsche ich mir zwar, wie du wohl auch, einen starken Fermi.
Aber es deutet halt nichts drauf hin, dass dieser Wunsch in Erfüllung geht... Das ist alles.

Und nochmal zu deinen Kommentaren zu Charlie: Er hat nie von 1%-Yields für die Serienfertigung gesprochen.
Er meinte lediglich, dass zu einem (sehr frühen) Zeitpunkt X die Yieldrate bei 2% lag und dass dies selbst für einen Erstversuch mieserabel ist.
Damit hat er darauf geschlossen, dass bis zur Massenproduktion noch ein paar Revisionen nötig sind, eben WEIL natürlich niemand eine Karte mit 1% Yieldrate in die Massenproduktion schickt.
Und du tust gerade so, als wäre es eine Ausnahme, dass er Recht hat.
Ich lese erst seit 12 Monaten auf SemiAccurate.com mit, aber in der Zeit habe ich nur sehr selten etwas gelesen, wo in rot blinkenden Lettern "Unsinn" draufstand.
Selbst bei Computerbase findest du ab und an sowas... (Auch wenn die Gründe dafür sicher andere sind)

Und zum PR-Quatsch von ATI... Seit die 2900 auf dem Markt ist habe ich von ATI nur SEHR wenig Müll gelesen.
Sie haben damals gesagt, dass in dem Chip nicht mehr drinnen steckte, wie man es besser machen will und warum der Chip nicht mehr kann.
Außerdem war das genau der Zeitpunkt zu dem ATI gekauft wurde, man kann also auch von ein paar anderen Gründen ausgehen, die jetzt nicht mehr zum tragen kommen.
Das ist natürlich herzlich egal wenn man das Endprodukt und seine nicht berauschende Leistung betrachtet.
Aber ebenso ist es herzlich egal, dass nV gerade untergeht (oder auch nicht) wenn Fermi direkt zum Silizium-Recycling geschickt werden sollte.
(So schlimm wird es ja wohl nicht, aber man wird nur wenige hinter ihren Öfen und Bildschirmen hervorlocken können...)
In der selben Zeit in der ATI also sehr offensiv mit den eigenen Schwächen umgegangen ist und viel sinnvolles gesprochen hat, in genau dieser Zeit hat nV nur noch Chips umgelabelt, die Leute mit PR-Müll verarscht, versucht Ergebnisse zu manipulieren (Multicore-Support von PhysX) und Unwahrheiten verbreitet (Fermi zum Win7-Start in Mengen verfügbar... naja... ohne Kommentar).

Von daher: Lasst sie kommen.

Grüße vom:
Jokener
 
wenn es denn stimmen würde hättest du ja recht.
Aber so hat der Schreiberling dort nur gezeigt dass er DX11 nicht verstanden hat:
siehe:
https://www.computerbase.de/forum/threads/test-ati-radeon-hd-5670.686495/page-7#post-7228489
Toms Hardware hat mal wieder den Vogel abgeschossen und bewiesen, dass sie keine Ahnung haben. GDI und GDI+ werden von DX11 Karten die einen vernünftig programmierten Treiber haben nicht mehr zum Rendern von 2D benutzt. DX11 verwendet die 3D Engine mit Direct2D.

Wenn ich nun einen Benchmark mache der die GDI Leistung misst, werde ich dort logischerweise kaum Aktivität finden bei einer Karte die das gar nicht nutzen soll
Oder auch Hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474680

Blau mit DX11 und Orange der Datenweg ohne DX11
Kein Wunder dass eine Onboard Grqafik von Nvidia ohne DX11 mehr Arbeit auf dem GDI verrichten muss, wo die ATI karten sich den Umweg sparen und die Daten schon längst verarbeitet und schon zurück geschickt haben.

original.aspx
 
Jokener
Ich versteh dich nicht. Du schreibts GTX 380 und 5970 sind "gleichauf", aber du willst sie nicht gegenüberstellen?
Du gibts selbst zu, das GTX 380 defintiv vor 5870 landet. Warum vergleichst du dann nicht GTX 360 mit 5870?

Wie kommst du auf 140$ für 5870 und 210$ für welche GF100?
Das Problem ist, das du weder die Verträge kennst, noch den Umstand das das Silizium nur ein Teil des Produktionsprozesses ist, außerdem bedeuted ein Defekt immer noch nicht, das der Chip für den Müll ist. Man braucht sogar viele Defekte, für die GTX 360.

Du siehst ein, das GF100 die Situation zum heutigen GT200b verbessert. Warum dann die Aufregung, ist doch schön wenn sie aus dem Dreck rausfahren.
Ich könnte dir auch noch erzählen, das eine GTX 380 kaum bis gar nicht teurer als eine GTX 280 in der Produktion sein wird, eventuell sogar billiger. Der VRAM ist eben billiger, das PCB ebenfalls. Was die GPU genau kostet wissen wir nicht.

Das mit den 1% Yield von Charlie war reine Stimmungsmache, das ist mir klar. Den die üblichen Yields der ersten Wafer hat er nicht verraten.
Das AMDs PR angeblich nicht lügen soll, ist es dann besser diese PR zu kopieren und so zu tun als ob man ein unabhängiger Redakteur ist?
 
Das AMDs PR angeblich nicht lügen soll, ist es dann besser diese PR zu kopieren und so zu tun als ob man ein unabhängiger Redakteur ist?

Nein, es ist nicht besser, aber die Verwerflichkeit hält sich in Grenzen.^^
 
Er meinte in dem selben Artikel allerdings, dass einige Leute aus der Industrie (er hat auch gesagt was für Leute, ich hab's nur nicht im Kopf) dazu befragt wurden.
Diese Leute hätten zwischen 20 und 55 Prozent bei einem großen Chip auf einem neuen (gut funktionierenden) Prozess erwartet.
Natürlich hat der schlechte Prozess die Zahl zusätzlich verschlechtert, aber die Zahlen sprechen für sich.

Außerdem drehst du meine Aussagen um...
Ich denke, dass das Fermi-Topmodell WAHRSCHEINLICH bis zu 20% vor der 5870 liegt.
Eine 5890 wird nicht mehr als eine 5870 kosten, wenn's einfach nur per Taktschraube gemacht wird.
Daher finde ich den Vergleich passender als Fermi VS Hemlock...

Das ein Fermi-Topmodell, oder auch eine GTX 360, günstiger wird als eine GT200 glaube ich halt einfach nicht.

Und natürlich fänd ich es nicht schlecht, wenn die Karten brauchbar sind.
Nur glaube ich aus den genannten Gründen nicht...

Grüße vom:
Jokener
 
die gtx260 geht derzeit ab 130 € über die theke. wenn durch den shrink die herstellungskosten gleich geblieben sind (fläche soll ja etwa gleich groß sein), dann wäre das theoretisch als untergrenze im rahmen des möglichen. dabei muss allerdings beachtet werden, dass es sich bei den gtx260-preisen um abverkaufspreise ohne gewinnmarge handeln könnte...
die aktuellen preise der 58x0 sollten aber durchaus machbar sein.
auf der anderen seite hat ati aber reichlich spielraum nach unten, sprich die werden auf jeden fall gewinn fahren, wenn nvidia schon gegen 0 kalkuliert.
 
Complication schrieb:
wenn es denn stimmen würde hättest du ja recht.
Aber so hat der Schreiberling dort nur gezeigt dass er DX11 nicht verstanden hat:
siehe:
https://www.computerbase.de/forum/threads/test-ati-radeon-hd-5670.686495/page-7#post-7228489

Oder auch Hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=474680

Blau mit DX11 und Orange der Datenweg ohne DX11
Kein Wunder dass eine Onboard Grqafik von Nvidia ohne DX11 mehr Arbeit auf dem GDI verrichten muss, wo die ATI karten sich den Umweg sparen und die Daten schon längst verarbeitet und schon zurück geschickt haben.

oha, das ist aber eine interessante info!
allerdings hat THW nicht nur benchmarks erwähnt sondern auch aus der praxis geschrieben:

Auch CorelDraw und AutoCAD werden mit der Radeon HD 5870 spürbar schneller wenn man den DWM deaktiviert....
Es ist geradezu peinlich, dass eine veraltete Onboard-Lösung nicht nur um viele Faktoren schneller, sondern dass generell kein zufriedenstellendes Arbeiten mit vektorbasierten Programmen möglich ist. Das ist nicht nur wie in diesem Test messbar, sondern in der täglichen Arbeit deutlich fühlbar.


wie passt das zu deinen ausführungen? würde es gerne verstehen, weil es für mich kaufentscheidend ist.
 
lorpel schrieb:
oha, das ist aber eine interessante info!
allerdings hat THW nicht nur benchmarks erwähnt sondern auch aus der praxis geschrieben:

Auch CorelDraw und AutoCAD werden mit der Radeon HD 5870 spürbar schneller wenn man den DWM deaktiviert....
Es ist geradezu peinlich, dass eine veraltete Onboard-Lösung nicht nur um viele Faktoren schneller, sondern dass generell kein zufriedenstellendes Arbeiten mit vektorbasierten Programmen möglich ist. Das ist nicht nur wie in diesem Test messbar, sondern in der täglichen Arbeit deutlich fühlbar.


wie passt das zu deinen ausführungen? würde es gerne verstehen, weil es für mich kaufentscheidend ist.

schätze mal dass die meisten programme noch nicht Direct2D verwenden bzw dafür optimiert sind.
soweit ich weiss bauen seit den HD2000 / Geforce 8000 generationen beide hersteller keine dedizierte hardware mehr für 2d ein. (wenn du echte hardware 2d beschleunigung willst dann gibt es fast nur noch die karten von matrox). somit sollte das problem software bedingt sein, eventuell ein problem im treiber. Oder da im artikel erwähnt wurde dass das problem nicht rein auf ati beschränkt ist wäre auch ein generelles problem in windows 7 /DX11 im zusammenspiel mit nicht dafür optimierter software (die eventuell alte gdi funktionen direkt anspricht möglich).
denke auf jeden fall, dass sich das problem mit der zeit lösen wird.
 
Hier bezieht der Artikel Autor unter dem Nick FormatC Stellung:
https://www.computerbase.de/forum/threads/leistung-von-3d-karten-im-2d-bereich.686538/

hasenbein schrieb:
Man kann aber mit Sicherheit davon ausgehen, daß irgendwann neue Treiber rauskommen werden, die das Problem beheben. Ein Hardwareproblem ist es schließlich auf gar keinen Fall.
gruffi schrieb:
THG macht hier wieder mal ein Fass auf um Nichts. GDI ist ausser für das OS GUI sowieso für nichts zu gebrauchen. Professionelle Lösungen setzten auf OpenGL oder Direct3D. Und wer zukünftig 2D Anwendungen für Windows entwickelt, wird eher Direct2D nutzen, was ebenfalls auf Direct3D zurückgreift.

Vladez schrieb:
Im 3DCenter wurde auch schon über diesen Artikel diskutiert, mit dem Schluss, dass der Autor des Artikels bei THG keine, oder nur kaum, Ahnung hat.

Respekt schrieb:
Typisch TomsHardwareQuatsch.
Wieder mal panisch gegen Wände rennen und laut "2012" dabei brüllen.

Die gleiche Chose wie beim TLB-Bug, der übrigens nie auftreten ist. Bei uns liefen B2 Opterons (Barcelona) bis zum Austausch gegen zwei Shanghai ohne Probleme.

FormatC schrieb:
Ihr müsst sauber trennen:

Davon betroffen sind:
• 2D-Programme, die eine Zeichenausgabe über das GDI realisieren (und damit auch unter XP laufen)
[...]
Nicht davon betroffen sind:
• 2D-Programme, die eine Zeichenausgabe über Direct2D realisieren (und nicht unter XP laufen)
• 3D-Programme
• Programme die OpenGL nutzen
[...]
Interessanterweise hat ATI bereits vom Catalyst 9.10 zu 9.11 die Abstürze beim Zeichnen über das GDI gefixt, zwischen 9.11 und 9.12 wurde u.a. das Ausgeben der Fonts für alle Methoden um ca. 25% beschleunigt und läuft nun über die Hardware. Das für all diejenigen, bei denen evtl. noch Fragen offen sind.

FormatC schrieb:
Zumal Direct2D auf Nicht-DX10-Karten und mit WDDM 1.0-Treibern nicht läuft. Dazu passt auch perfekt ins Bild, dass ATI unter W7 den Support für eben diese Karten in neuen Treibern einstellt. Man möchte dieses Stück IT-Geschichte möglichst schnell und mit sanfter Gewalt sterben lassen ;)

Das Gemogel mit dem aperture space unter W7 stellt die Treiber-Programmierer vor arge Klimmzüge. Unbesehen. Aber dass es lösbar ist, wissen wir. Jetzt müssen sich die Eierköpfe in Toronto mal ein wenig sputen und nachholen, was noch im Buch der guten Taten als ungelöst drin steht :)

GreatEvil schrieb:
Das liegt an der Vergangenheit von THG.
THG war mal eine echt angesehen Page. Bis 1999 ein Fanboy namens Frank Voelkel den Artikel zum K7 geschrieben hat. Das Werk war so phaenomenal, das es kurz darauf vom Netz genommen und von einem Artikel von Thomas Pabst (Gruender und damals noch Eigentuemer von THG) ersetzt wurde.
Aber Herr Voelkel lies sich nicht klein bekommen und das Duo Voelkel und Toelpel hat spaeter aus THG entgueltig eine Witzseite gemacht.

@ FormatC
Du beschwerst Dich, aber gibts bei THG Kommentare wie:
"Ach Gottchen, hört doch mit dem Underdog-Gefasel auf. ATI gehört zu AMD. Und dort haben die Mullahs das Sagen und Kohle, solange sie noch Öl aus dem Boden lutschen."
Ich verkneif mir an dieser Stelle jeglichen Kommentar.

gruffi schrieb:
Hinzu kommt, dass THG hier einfach unsachlich gegenüber ATI argumentiert. Fakt ist doch, dass die Symptome unter Windows 7 mit DirectX 11 Karten beobachtet wurden. Und Fakt ist auch, dass hier eine Vergleichsbasis zu GeForces fehlt aufgrund fehlendem DirectX 11 Support.

gruffi schrieb:
Stattdessen wird lieber mit hohlen Phrasen Stimmung gemacht ("ATI im Rückwärtsgang? ...") und lediglich mit Teil 2 Aussicht auf Besserung gestellt. Das hinterlässt nicht gerade einen seriösen Eindruck. Und der Ruf, den THG geniesst, tut da sein Übriges.
[...]
Da ich schon genug mit der WinAPI programmiert habe, weiss ich das auch. Aber GDI ist lediglich ein Interface für grafische Funktionen. Damit kann man trotzdem sehr viel Unsinn anstellen und sehr ineffiziente Routinen implementieren. Und Corel Draw schien mir seit jeher ein gutes Beispiel dafür zu sein. Wobei ich zugeben muss, dass ich die Entwicklung in den letzten Jahren nicht mehr mitverfolgt habe.

Der Zweite Teil ist mittlerweile online und liest sich bei weiten anders als der erste. Der Autor scheint sich in den Foren Diskussionen zumindest fachlich etwas informiert zu haben und seine Schreibweise zu relativieren. Zumindest liest man nichts über "Öl lutschende Mullahs" :rolleyes:
http://www.tomshardware.com/de/wddm-2d-performance,testberichte-240487-2.html
Fazit und erste Zusammenfassung:

Man muss emotionslos die Treiberentwicklung abwarten und dann entscheiden, ob die von uns geschilderten Probleme für einen persönlich relevant sein könnten. Es betrifft überwiegend die 2D-Performance unter Windows 7 und ist auch nur dann akut, wenn die 2D-Ausgabe über das GDI bzw. GDI++ erfolgt. 2D-Software, die auch unter Windows XP läuft, ist demnach fast immer von diesem Problem betroffen. Zum Gestalten einer kleinen Glückwunschkarte reicht die Leistung sicherlich, aufwändige Ornamente hingegen sollte man lieber nicht verschieben wollen. Letztendlich entscheidet dann also der Umfang der Zeicheninhalte.

Hier ist nicht entscheidend welche Grafikkarte man kauft bei 2D, sondern unter welchem OS man ein Programm laufen lässt solange die verwendete Software nicht voll DX11 kompatible ist und für die direkte Hardwareausgabe programmiert ist. Eine Entscheidung die immer mehr mit Betriebssystem als mit Hardware zu tun hat, und wie die Treiberunterstützung im speziellen Anwendungsfall aussieht.
 
Jokener schrieb:
Außerdem drehst du meine Aussagen um...
War nicht meine Absicht, 5890 und 5970 habe ich verwechselt.
Kann mal passieren, erste gibts doch auch (noch?) gar nicht.

Nein, dann kann ich nicht mit dir übereinstimmen, die 20% sind mir zuwenig. Aber das mal bei Seite, ich sehe die GTX 360 als 5870 Gegner, ergo vergleiche ich diese beiden.
Erstere ist bei weitem billiger als eine GTX 380, sie bekommt ein billigeres PCB, billigeren und weniger VRAM und die teildefekten GF100.

Er meinte in dem selben Artikel allerdings, dass einige Leute aus der Industrie (er hat auch gesagt was für Leute, ich hab's nur nicht im Kopf) dazu befragt wurden.
Diese Leute hätten zwischen 20 und 55 Prozent bei einem großen Chip auf einem neuen (gut funktionierenden) Prozess erwartet.
Nur ist es eben kein gut funktionierender Prozess gewesen.
Das hat er gerne verschwiegen.
Die Yields sind massiv geschwankt, ich habe da noch 4-50? % im Sinn. Die Prozessbedingten Defekte sind einfach heftig, da kann man einfach nur warten, bis die Meldung kommt es läuft normal.

Das ein Fermi-Topmodell, oder auch eine GTX 360, günstiger wird als eine GT200 glaube ich halt einfach nicht.
Darauf will ich mich auch nicht festlegen.
Aber betrachte mal nur das teurere GTX 280 PCB oder die 16 Chips des in der Güte sehr teueren GDDR3.
Das sind Punkte, die jetzt anders ausfallen. Weniger biligere VRAM Chips, billigeres PCB, ...
Dann beachte noch das GT200 auch nicht gerade ein billiger Chip war und schwups sind die Kostenunterschiede keine Welten. Beachte auch, das ich GT200 und nicht GT200b meine.


Edit:
Muss dieser THG Artikel hier besprochen werden?
https://www.computerbase.de/forum/threads/leistung-von-3d-karten-im-2d-bereich.686538/
 
Zuletzt bearbeitet:
Find ich sehr interessant. Das die Fermi-Karten als 400er Serie kommen habe ich schon länger für möglich gehalten (um genau zu sein, seit sie damit begonnen haben 300er Karten als Renames zu verkaufen, beginnend mit der 310) Wirklich interessant an der News finde ich die GTX470. Von den vermutlich schlechten Yields ausgehend, war ja die allgemeine Ansicht, dass eine GTX360 resp. jetzt halt 460 kommen würde mit deutlichen Beschneidungsmassnahmen. Die 70 lässt allerdings auf einen stärkeren Chip schliessen. Da bin ich gespannt wie das ausgeht und ob der Leistungsunterschied zwischen 480 und 470 realisiert wird via weniger Cuda-Cores, weniger Takt oder beidem (wobei letzteres ja deutliche Performanceverluste mit sich ziehen würde)
 
Besser ist das, dann weiss man wenigstens das man die 300er einfach links liegen lassen kann. Ne Vermischung aus alt und neu bringt mehr Verwirrung.
 
die 300er wirste imho gar nicht liegen lassen können, weils reine oem-karten werden dürften ;)
denke die beerben einfach die gt100. habs im gerüchte-thread schon geschrieben: imho wird nv die graden zahlen für die retailkarten nutzen und die ungraden den oems für "eigenkreationen" überlassen. sprich die spezifikationen für die oem-karten werden vermutlich sehr offen gehalten, besonders was speicher art und ausbau sowie taktraten angeht.
 
tjo, wer fertigrechner kauft will aber auch nur nen rechner der "halt funktioniert und günstig ist" ... und die leute wären auch noch mit na umbenannten 6er (gforce) reihe gut bedient mMn.

aber das generell mal ne übersicht möglich ist ist ein fortschritt.
 
Zurück
Oben