News Nvidia GeForce GTX 470/480 weiterhin nicht verfügbar

Krautmaster schrieb:
Jetzt frag ich mich wo die unglaubliche hohe Rohleistung der HD5870 bleibt...

Das mich das, als 3D Spiele Zockhanswurst stört ist klar, aber genauso klar sollte es sein, dass das Augenmerk des GF100 nie darauf lag.
Naja mit der HD5870 wird sich Fermi auch nicht messen müssen im GPGPU Bereich:
http://fireuser.com/blog/firepro_v8750_vs_radeon_hd_5870_benchmarks/
specview_perf_maya_8750v5870.gif

Quote for Maya: ”Results in Maya were nothing short of shocking. While the HD 5870 was in a virtual dead heat with the 8800 GTX, the FirePro V8750 quite simply facepounded both of them. In fact, the V8750’s average performance increase over the big, bad Radeon came out to about 650%. Six hundred fifty percent.”

Und das ist die alte Fire Pro - die neue Fire Pro V8800 und V8850 auf Evergreen basierend sind noch gar nicht released.
 
Krautmaster schrieb:
Jetzt frag ich mich wo die unglaubliche hohe Rohleistung der HD5870 bleibt...

Ist bei diesen cherry Picked( optimierten) Benches auch kein Wunder.
Die HD5870 schlägt die GTX480 bein einfacher Genauigkeit um Längen und ist bei zweifacher Genauigkeit nicht weit weg.
 
Sw@rteX schrieb:
naja wie das aussieht werde ich eh auf nen kühler namens accelero xtreme für die 470 warten müssen da die karte mit standart-kühler meinen heizkörper im wohnzimmer ersetzen kann :D

Mit solch einer Verlustleistung musste ein accelero xtreme bisher nicht umgehen. Dafür ist er wohl auch nicht ausgelegt. Schau mal was nVidia da verbaut hat um den Hitzkopf im Zaum zu halten.

G-Power schrieb:
Ich denke NV hat den TERMI ;) Chip ausschlißlich für den Professionellen bereich gebaut. Der hat da auch die vollen 512 Cuda Cores die 480 ist also schon ein Abfallproduckt mit ihren 480 Cores.

Und wenn die 470 und die 480 (als eigentlich teildefekte Karten) schon unter 20% Yield Rate haben, kann man sich vorstellen, dass selbst NV wohl nur ein paar Stück hat bei denen die 512 Cuda Cores funktionieren.

Edit: Haben andere auch schon angemerkt :rolleyes:
 
@Krautmaster: Benchmarks sind nicht unbedingt repräsentativ.
Ich kann auch mit nem Geländewagen nen Formel 1 Auto auf nem schlechten Feldweg meilenweit schlagen und habe auf ner Rennstrecke keine Chance gegen den.
Wenn der Benchmark auf Nvidia Optimiert ist, dann fällt das Ergebnis auch für Nvidia besser aus.
 
Krautmaster schrieb:
genauso könnte ich hingehen und sagen, dass sich die FirePro V8750 nicht mit der GTX480 messen muss.
Ja natürlich - und damit hast du auch Recht. Es wird sich kaum jemand eine GTX480 oder HD5870 kaufen wenn er die Rechenpower benötigt. Wir reden ja auch von Workstations - die kaufen eben Tesla oder Fire Pro.
 
3-12% schneller als die Atis... und die GTX 480 und 470 werden ab dem 16.4 verfügbar sein ...
 
Ja Früher war es schöner 2x Vodoo 2 im Sli Betrieb ach war das schön die Frage ist eh wer gibt für so ne Karte 350 - 500 Euro aus also ich sicher nicht Denkt ma drüber nach

nun gut, wenn man nur auf der framespur arrgumentiert, wie 90% im nvidia vs ati gezänkel,.. dann wird es langweilig für mich!

3dfx bzw voodoo wurde bekannt durch opengl unterstützung, und deutlich weniger, über frames-attitüden!
 
Complication schrieb:
Naja mit der HD5870 wird sich Fermi auch nicht messen müssen im GPGPU Bereich:
http://fireuser.com/blog/firepro_v8750_vs_radeon_hd_5870_benchmarks/
specview_perf_maya_8750v5870.gif



Und das ist die alte Fire Pro - die neue Fire Pro V8800 und V8850 auf Evergreen basierend sind noch gar nicht released.

Was ist denn das für ein blöder Benchmark? Eine Profi Karte mit einer Consumer Karte zu vergleichen?
Oder soll es zeigen um wieviel besser ein richtiger OpenGL Treiber ist?
 
ich glaube, dass das verdeutlichen sollte, dass Leute, die auf GPUC wert legen sich eher eine Professionelle Grafikkarte leisten und damit ein Spagat zwischen Gaming und GPUC relativ unsinnig ist.
Für das bisschen GPUC, was dir im Alltag begegnet (mal nen Video konvertieren etc) kommt es ja meistens nicht drauf an, ob es jetzt 3 oder 6 (GPU) Minuten statt 2 Stunden (CPU) dauert.
 
SchlachtVati schrieb:
3dfx bzw voodoo wurde bekannt durch opengl unterstützung, und deutlich weniger, über frames-attitüden!

Ich denke eher Glide und bilineare Filterung waren die Key Features. Vor allem letzteres.
 
Critter schrieb:
Was ist denn das für ein blöder Benchmark? Eine Profi Karte mit einer Consumer Karte zu vergleichen?
lol... das ist ja nur zur Demonstration, dass die GPGPU Performance der HD5870 einfach keine Rolle spielt für Workstations ;)
 
Winterday schrieb:
Was sich auf den ersten Blick als finanzielles Desaster darstellt, ist tatsächlich halb so wild. nVidia verdient nicht mit hochpreisigen High-End-Modellen sein Geld, sondern mit Low-End- und Consumerkarten.

Welche Karten sind denn da im Low End und Consumermarkt zur Zeit konkurrenzfähig und attraktiv? Mal abgesehen von der GTS 250 vielleicht gibts doch zur Zeit keine Karte von 35,00 bis 350,00€ die zu ihrem Preis wirklich überzeugt gegenüber dem Konkurrenten.

Luxmanl525 schrieb:
Hallo zusammen,

@ Critter & Winterday

Ihr liegt beide Falsch, Sorry. Nvidia macht mittlerweile nur noch einen relativ kleinen Teil ihres Geschäftsumsatzes bzw. Gewinns mit Gamer-Karten, eingeschlossen Mid- und Low-Range-bereich.

Wäre nett für solche Aussagen auch immer gleich die Quellen mit zu liefern.


SchlachtVati schrieb:
3-D vision >>>,... sowas ähnliches gab es schon vor gut 12 jahren von matrox! und mit der damaligen geforce ti200 und unreal tournament z.b. war das wunderbar...

Eyefinity,... über brauchbarkeit muß man deswegen nicht laut werden, wer nutzt das denn? ausserdem wenn man es genau betrachtet, schmunzelt matrox auch über sowas, denn das gab es auch schon in abgewandelter form!

Lies hier mal bitte nen bissel quer:
https://www.computerbase.de/forum/t...ctx-11-karten-vor.633780/page-13#post-6617053
http://www.edimensional.com/
http://www.iz3d.com/
http://www.wazabee.net/
http://www.zalman.co.kr/eng/product/product_read.asp?idx=219
http://www.hardware-infos.com/news.php?news=3470

Btw gehts und ging es hier bei Eyefinity gar nicht darum etwas Nagelneues zu erfinden, jedoch wurde es gegenüber Matrox doch erheblich vereinfacht, und zu günstigeren Preisen auch der breiteren Masse zugänglich gemacht.
Sogern ich Matrox auch selbst noch verbaut habe, aber zu schmunzeln haben sie da nicht besonders viel.

Krautmaster schrieb:
von diesen Rohleistungsdaten halte ich wenig. Zählen tut das was hinten rauskommt.

Von daher ist es doch auch egal wo die Leistung der Rohdaten bleibt. Das die 5D Shader von ATI nichts vergleichbares sind, ist doch nun wirklich nichts neues.
 
Complication schrieb:
lol... das ist ja nur zur Demonstration, dass die GPGPU Performance der HD5870 einfach keine Rolle spielt für Workstations ;)
Jein, also OpenGL ist ja nicht gleich GPGPU. Aber ok, kann sein dass der normale Treiber bei ATI da auch gedrosselt ist und der prof. Treiber den in dierer Richtung voll ausreizt.
Aber was bei den Consumer Treibern fehlt wären Physik Berechnungen. Hatte da AMD nicht mal mit Intel zusammen gearbeitet da Intel Havok übernommen hatte?
 
Hier sollte man allgemein Bedenken, dass jede Karte einen anderen Treiber hat, der auf die jeweilig auszurichtende Arbeit ausgerichtet ist.
GeForce + Radeon = Gaming
Quadro + FireGL = CAD, 2D
Tesla = GPGPU
Man sollte hier die jeweiligen Karten vergleichen und nicht eine Gaming Karte mit einer für GPGPU und CAD.......
Übrigens. Jede Karte hat denselben Chip. Auch bei ATI.
 
Ja, es wird immer exotischer ! Das erinnert mich an benchmarks zum Celeron, der in mathematischen (Kleinst-)Berechnungen wirklich nicht so schlecht da stand, weil die Frequenzen ganz beachtlich waren. Aber aufgrund kastrierter Caches und Zwischenspeicher war das insgesamt eine lausige Sache. Die 3Mrd. Transis müssen ja für irgendwas gut sein, vor allem wurde eben auch nicht auf den 3D-Spielermarkt hinentwickelt. Klar, dass das Fermi-Monster einiges berechnen kann.

Nur: die Karte ist für Consumer ein Rohrkrepierer. Mich ärgert nur, dass die Karte seit Ende März in allen benches auftaucht, obwohl sie noch auf lange Sicht nicht lieferbar sein wird. Und das nur, weil man Nvidia glaubt (warum diesmal), dass mehr als nur homöopathische Dosen den Markt erreichen werden. Seriöse Seiten testen wenigstens die ATI 5970. Denn dass diese zwei GPUs hat ist kein Grund, sie nicht mitzutesten ?! Beides sind Grafikkarten, die 5970 ist sogar sparsamer und deutlich schneller als Fermi. Aber sie mitzubenchen würde ja bedeuten, dass Nvidia sein Ziel verfehlt hat ?! Wer das schreibt, bekommt das nächste Mal keine Testexemplare der ach so raren Karten, die ja sogar in den Samples teilweise defekt waren, so mager ist der Bestand selbst bei Nvidia.

Wo steht bitte geschrieben, dass Single- und Dual-GPU-Karten nicht doch nur eins sind: einzelne Grafikkarten, die man kaufen und mit denen man Spielen kann ? Diese Differenzierung ist eine theoretische Sache, von Redakteuren und gekaufter Presse erfunden. Ich habe seit jeher Dual-Grafikkarten eghabt, 7950GX2, 9800GX2 und eine 5970 wird auch bis Weihnachten bei mir im Rechner stecken.
 
Nvidia So muss man es machen erst mit lauter Fehlmeldung hin halten und dann erst mal damit das misstrauen der Kunden nicht verloren geht haut man sich auf den Markt erst mal und dann zögert man es noch weiter hinaus mit Lieferschwierigkeiten. Mag sein das TSMC Schwierigkeiten hat aber nun Angebote ist schon Hammer.
 
ob Ati kaum lieferbar ist oder nvidia, ist im Ergebnis auch egal. War im Grunde eh nichts anderes zu erwarten und eine wirkliche Neuigkeit ist das auch nicht.
 

Ähnliche Themen

Zurück
Oben