Test GeForce GTX 470 im Test: Nvidias neue „Kleine“ ist besser als der große Bruder

VCore-Voltage schrieb:
nVidia hat die GTX4xx nur zur Schadensbegrezung veröffentlicht.Entwickeln bestimmt schon kräftig am Redesign oder am Nachfolger.

Wie ATI damals mit der HD2900 und der sehr schnell erscheinenden HD38x0

Und nicht zu vergessen:

Das erinnert mich als ATI die 9700 Pro rausbrachte und alles im Boden stampfte. (niemand hatte mit so eine ATI-Karte gerechnet)
Es wiederholt sich irgendwie, mit der Ausnahme, dass damas niemand von eine 9700 wüsste, wärend heute Nvidia wusste, dass es mit die HD5870 und HD5970 zu tun hatte. ;)
(was Verbrauch, Spielleistung, Preis, usw)

Schade, denn ich hätte gedacht, jetzt werden die HD58xx günstiger, und kann mich eine zweite HD5850 kaufen. :D
 
cem28 schrieb:
Also mein Fazit: Ich will auf 3D Vision,
Open Stereo 3D

cem28 schrieb:
Physx führt dazu, das die Physik in Spielen nicht vorankommen. Solange Physx genutzt wird, solange wird Physik nicht für Berechnungen wie (Achtung extrembeispiele) Wolkenkratzersprengungen usw. genutzt werden. Denn da muss Nvidia schon viel viel mehr Geld schmieren, damit die Entwickler sich den AMD Käufern entziehen...

Ich würde da eher auf freie Technologien wie Bullet setzen...

cem28 schrieb:
Kenn ich nicht :freaky:
cem28 schrieb:
und werde wohl noch ein bissel warten und mir dann eine 470er gönnen.
Für 3D Vision wirst du, anders als für Open Stereo 3D, 2 Grafikkarten benötigen, genauso wie bei Physx ;)
 
KAOZNAKE schrieb:
Hier liegt die Schuld eindeutig beim Entwickler, da die Hardware ja nun auch nicht grad nagelneu war (Zumal in der XBOX360 ne ATI-Graka drin ist).

Darum unterstützt die Xbox360 ja auch schon seit ewigkeiten Tesselation, was auf bei der lächerlichen Polygonleistung zu einem gewaltigen optischen Mehrwert geführt hat, der sonst nicht möglich gewesen wäre.

@ KAOZNAKE
Oh, sorry. Hab ich falsch verstanden.
 
... zum Glück reicht mir meine 260² noch ne' Ecke. 470er + 480er = Epic Fail!
Sorry nVidia, daß war nix. :freak:
 
Freu mich schon auf den tessellation artikel :)
Dann werden wir ja sehen wie viel leistung die GF100 Serie wirklich in diesem (meiner Meinung nach wichtigen) Feature hat.

Interessant ist aber folgendes:
http://en.wikipedia.org/wiki/List_of_games_with_DirectX_11_support

Selbst Civilization V wird dx11 unterstützen ;) Ich denke wenn sogar so ein Spiel, welches ja nicht auf Grafik alleine beruht DX11 unterstützt, dann werden wir sicherlich noch sehr sehr viele Spiele sehen die DX11/Tessellation unterstützen ;) - naja abwarten.
 
eine GTX470 leiser als eine 5850??
Unter last leiser als die 5850.Soll ich lachen!!!!!!!!
Irgend eine Basis muss ich nehmen und PCGH hat mit Abstand ein besseres Messequipment als CB


Ersters (470 Nachteile) widerspricht mehreren Reviews und weiterhin widerspricht sich HD5850 Vorteile mit dieser Aussage sowie mit der 5850 Nachteile Aussage.
HÄ?
1. Welche Nachteile der GTX 470 stimmen nicht?
2. Du kannst nicht von jedem verlangen das man sich ein costum Desingn holen muss, das Referenzdesign zählt auf jeden Fall am meisten und hier ist unter Last wie schon seit Ewigkeiten Fail auf beiden Seiten, wer jetzt minimal besser, bzw. nicht ganz so laut rödelt spielt eigentlich keine Rolle...

Physx ist herstellergebundener Müll. Sowas ist IMO der Tod für den PC-Markt. GPU-Physik für alle, wenn schon. Alternativen gibt es.
Ja dann fahr mal bei AMD in Dresden vorbei und hau kräftig auf den Putz, Bullet Physik für alle, jetzt sofort. Wird wohl noch ein paar Dekaden dauern bis sich da was bewegt...
Anno gepatched-->geht
GTA4 gepatched-->geht
Viel zu spät, hätte ich zur der Zeit eine ATI gehabt, hätte ich sie umgehend aus dem Fenster geworfen. Ich warte nicht Monate auf einen Treiberfix...

Hier liegt die Schuld eindeutig beim Entwickler,
Falsch, ATI hat hier keine Ingenieure zu den Entwicklern geschickt, die drauf schauen das das Game 100% mit ihrer Hardware läuft... ATI gibt offen zu das sie ihre Optimierungen (meistens) erst machen können wenn das Game schon auf dem Markt ist. Anders bei NV stehen die TWIMTBP Leute teilweise schon Monate vor Release bei den Entwicklern und helfen mit...

"Nachteile 470: Viel zu laut unter Last, aber leiser als HD 5850 (3,4 Sone PCGH)"

Dies widerspricht den meisten Tests (ist aber nicht unmöglich)
Werd mal HT4U abwarten und dann eventuell ausbessern, als Kompromisslösung...
 
Kasmopaya schrieb:
... Bullet Physik für alle, jetzt sofort. Wird wohl noch ein paar Dekaden dauern bis sich da was bewegt...

Nana, wollen wir mal nicht übertreiben. Du weißt aber schon, dass eine Dekade 10 Jahre sind und dass sowohl Bullet als auch Havok auf GPU angekündigt sind. Und zwar über OpenCL, also für alle.

Kasmopaya schrieb:
Falsch, ATI hat hier keine Ingenieure zu den Entwicklern geschickt, die drauf schauen das das Game 100% mit ihrer Hardware läuft... ATI gibt offen zu das sie ihre Optimierungen (meistens) erst machen können wenn das Game schon auf dem Markt ist. Anders bei NV stehen die TWIMTBP Leute teilweise schon Monate vor Release bei den Entwicklern und helfen mit...

Da fließt Geld, das solltest du nicht vergessen. Da hängen bestimmt auch nette Verträge dran und zu einem Entwickler der gerade ein TWIMTBP Titel in der Mache hat, braucht ATI erst gar niemanden hinschicken. Beim starten kommt das NV Logo und nicht nur das.
Es ist eben eine andere Herangehensweise und tatsächlich können die 2 Hersteller nicht ihre Ingenieure überall verteilen, was NV ja auch nicht macht, aber Support gibts bestimmt genug.


@ Complication (unter mir)

Hab ich auch verlinkt, aber das hat irgendwie keinen interessiert *heulenkönnt* ;-)
 
Zuletzt bearbeitet:
und 1,8 sone lauter unter Furmark: 6,7 vs. 4,9 - sogar die HD5870 ist leiser unter Vollast laut PCGH.
Ahja seit wann ist die Lautstärke in Furmak relevant? Es zählen bei Furmark die Lüfterspeed also fährt der Lüfter auf 100% und schafft er es die Wärmeentwicklung konstant zu halten -> Temps-> Spannungswandler am sterben oder auch OK
PCIe Specs. werden sie eingehalten -> welches Netzteil braucht die Karte
Aber Lautstärke bei Furmark -> ne nicht wirklich oder?

Nana, wollen wir mal nicht übertreiben. Du weißt aber schon, dass eine Dekade 10 Jahre sind und dass sowohl Bullet als auch Havok auf GPU angekündigt sind. Und zwar über OpenCL, also für alle.
Da wird sich so schnell nix ändern bzw. nie, genau das habe ich damit gemeint.

0,5 sone lauter im Idle: 1,3 vs. 0,8 sone
Hab ich was anderes geschrieben?

Crysis bei PCGH, das währen mal intressante Zahlen, aber ich glaub HT4U testet mit Crysis oder? Dann werd ich da mal schaun was bei raus kommt.

Da fließt Geld, das solltest du nicht vergessen.
Ja in die Leute die sich da die Mühe machen und das Game auf ihre Hardware abstimmen, aber eher weniger an die Entwickler, so reich ist NV auch wieder nicht -> vergiss es
 
Es ist so schön und ATI hat schon nen schweren Stand hier bei CB.
Jetzt hat ATI endlich mal die Nase vorn und die NV-Boys hacken nun drauf rum und
kaufen trotzdem NV....
Wenn ATI hinten liegt hackt jeder drauf rum, dann nämlich auch die, die
nach dem logischen Schluss das bessere Produkt kaufen klar das AMD/ATI nen schweren Stand hat.

Bei mir sitzt zwar auch seit der GF4 TI4000er Serie keine NV mehr im Rechner, allerdings waren die
HD4000er Reihe von ATI preislich sehr attraktiv und leistungstechnisch reicht es vollkommen,
absolut glücklich damit.
Die HD5000er Serie werde ich wohl momentan auch erstmal überspringen, leider....
 
Naja die billigheimser 300€ 50"! media/saturn lcds verkaufen sich auch wie scheisse, sagt aber nichts darüber aus wie gut sie sind.
Ich weis warum ich damals die 9800 pro gekauft hatte.
Ich weis genau warum ich mich damals für eine 6600gt und nicht für die schnellere x800 ati entscheiden habe.
Ich weis auch genau warum ich eine 8800gts gekauft habe und nicht das ati gegenstück und auch bei der 275 weis ich warum ich diese der 4890 vorgezogen habe.
Derzeit kaufe ich zwar keine graka weil meinen 275 reicht(reichen muss geld mässig haha) noch bis zur next gen aber, wenn ich jetzt eine ATI kaufen würde, würde ich auch wissen warum.

Warum würde ich ATi kaufen derzeit und nicht nvidia?
Ati leistungmässig unter den nvidias, aber preislich ebenfalls also gegengerechnet ca gleichstand. 1:1
Temperaturen von 90°(schrecken mich nicht) und Stromverbauch sind für mich nur zweitrangig, aber wenns bei Ati dasselbe für weniger gibt ein Bonus 1,5:1
Phys-x ganz nettes feature/Bonus, aber kein must have also 1,5 :1,5
Lautstärke ganz klares Plus für Ati und mir sehr wichtig daher 3 :1,5
Generelle Bildqualität (AF/AA) hier kann man nvidia unter umständen noch ein plus geben 3:2
Nvidia hat das schönere logo und besseren treiber 3:10 sieger nvidia (sarkasmus)

Aber wieder enrsthaft.
SgSSAA/eyefinity/3dvision/hd audio hinten (ati) sind mir absolut egal da ich keines davon nutze!
Leistung ist mir nur die wichtig die sie in meiner Auflösung bringen, ob die eine graka in low res oder high res schneller ist, ist egal hier schaue ich nur auf die Leistung für meinen 24"!

So ungefähr sieht mein auswahlverfahren aus.

Für andere könnten aber auch eyefinity hd audio wichtig sind was das ganze sehr schnell richtung ati haushoch wirft.
Adnererseits könnt es auch enthusiasten geben die mit wakü kühlen von daher temp und lautsärke egal sind.stromverbauch da genug verdienst auch 2 rangig und klar mehr fps(wenn auch gering also nvidia kaufen). Und wenn man halt das ganze als richtiges hobby betrachet und auch weit jenseits der vernunft investiert dann ist phys x auch ein netter bonus den ich performancemässig im gegensatz zu sgssaa auch nutzen kann(ok der vergleich passt nicht ganz) hoffe jeder weis wies gemeint ist.

Man sollte das eben immer im hinterkopf behalten das jeder andere ansprüche hat auch wenn der gross wohl eher nicht darunter fällt . nur weil ich mir ne 480gtx leisten kann oder will und diese mit wakü auch kühl und leise bekomme, bin ich noch lange kein fanboy.

Jeder der hier im forum liest kennt die ergebnisse des test und wird einfach darauf basierend seine Kaufentscheidung treffen.

Mfg
V

Ps:Passt heir zwar nicht hin aber nen Audi /BMW haben damals als ich mich umgesehen haben (ca 5 jahre) bei wirklich indentischer austattung/motor fast auf 100€+/- gleich viel gekostet. 35000€
Ein Mercedes mit selber Ausstattung 42000+ - 7000€ teurer? Trotzdem gehen die Mercedes weg wie warme Semmeln, weil die leute sich mit den 7000€ einen sehr geringen mehrwert an qualität erkaufen dafür aber auch das beste haben .
Ds könnte man hier noch weiter ausführen aber wäre dann schon mehr als OFF Topic!
 
Zuletzt bearbeitet:
Complication schrieb:
Ich stimme dir zu dass man die Fermi nicht als Fehlentwicklung bezeichnen sollte. Vielmehr denke ich dass Nvidia einfach einige Fehler in der Entwicklung gemacht hat bzgl. Fertigungsprozess und diese eben korrigieren muss. Ich bin mir sicher dass die Architektur eine lange Zeit die Basis für Nvidia Karten bilden wird und auch das Stromproblem in den Griff bekommen wird. Nur die derzeitigen GTX480/470 sind im Prinzip Aufgrund der langen Verzögerung zwangsweise released worden um überhaupt was im Markt zu haben.

ja, ich ich finde auch dass der Fermi irgendwie einem Zwangslaunch gleich kommt. Man hat sich das bei Nvidia deutlich einfacher vorgestellt. Aber zugeben muss man auch, dass als die Größe des G100 festgenagelt wurde, sicher von einem guten 40nm Prozess ausgegangen wurde. Von einem so desaströsen Prozess konnte man auch kaum ausgehen. Die Größe ist dem Fermi / Nvidia nun ein Dorn im Auge, vorallem im Desktopsegment lässt sich so kein Geld verdienen. Was beim G200 noch aufging, wird dem G100 nun zum Verhängnis. Vielleicht muss man auch deswegen nun mehr Spannung fahren, hat mit schlechten Qualitäten und niedrigen Yields zu kämpfen, was auch der Grund für 480 Shader und sehr hoher Leistungsaufnahme ist.
Aber was beleibt NVidia anderes übrig. Sie mussten launchen. Aber die Verfügbarkeit wird noch lange sehr düster aussehen. Besserung wird erst ein kleinerer Prozess bringen, aber um eine Neuentwicklung bzw Parallelentwicklung mit optimierter Architektur wird man über kurz oder lang keinesfalls herumkommen wenn man gegen ATI / AMD bei Desktopgrafikkarten weiterhin mitreden will. Kann sein dass der G104 genau so eine Parallelentwicklung darstellt. Aber nicht abzusehenob udn wann sowas kommen wird. Schade nur dass sich die HD6XXX deswegen auch nicht beeilen muss. 2400 Shader + wären heute für AMD eine Sache von wenigen Wochen. Falls es nötig wäre.

Der Renderpfad wurde geändert für DX11 - und nicht die Technik neu erfunden.
Und da Nvidia ja die ganze Vorarbeit von Ati verwenden konnte da ja zugänglich durch die DX11 Spezifikation, würde ich das nicht als technische Meisterleistung feiern. Bei DX10 haben sie verhindert dass es implementiert wird weil sie keine Lösung hatten.

Hm ich glaube nicht, das Nvidia Vorteile aus irgendeiner Vorarbeit seitens AMD/ATI gezogen hat. Der Aufbau, die Architektur an sich ist zu verschieden. Gerade die Umsetzung der Tessellation zeigt die Unterschiede auf. Welches Konzept "besser" ist kann man kaum sagen. In Punkto Effizienz / Fläche ist der AMD Tessellator bestimmt besser, kann aber vielleicht mal zum Flaschenhals werden.
 
Zuletzt bearbeitet:
Wenn ich das Performancerating 1680x1050 und die HD5970 zugrunde lege, dann sehe ich, dass die HD5850 um 57% (=268 €), die HD5870 um 35% (=156 €) langsamer ist. Die GTX 470 ist um 42% (=157 €) und die GTX 480 ist um 17% (=34€) langsamer als die HD5970.

Meiner Meinung sollte das Preis/Leistungsverhältniss am maximal zu erreichenden Wert gemessen werden und das ist aktuell die HD5970 - sowohl in Frames alsauch beim Preis.


Die Werte in Klammern sollen den Preisunterschied zur HD5970 (510 €) verdeutlichen.
 
Krautmaster schrieb:
Von einem so desaströsen Prozess konnte man auch kaum ausgehen.
Der Prozess ist nicht desaströs - und AMD hat die Schwächen sehr wohl schon frühzeitig erkannt. Also konnte man davon ausgehen wo die Probleme zu fixen sind im Design.
Dieses Spiel haben beide bei jedem neuen Prozess vor sich - nur diesmal hat Nvidia das nicht gebacken bekommen. AMD macht es doch vor wie es funktioniert in 40nm.
Da hat einfach jemand Mist gebaut - doch das ist immer im Bereich des möglichen bei "On the edge"" Technologien. TSMC versucht ja seine Fertigung auch gut zu verkaufen und nicht die Schwächen zu betonen. Da muss man wohl viel zwischen den Zeilen lesen beim planen der Architektur - da hat scheinbar AMD/Ati traditionell die bessere Kompetenz. Hier hat sich das mal richtig ausgezahlt, zumindest kurzfristig.
 
Eine 5970 ist nur bei Strategiespielen brauchbar und da reicht eine 100€ Karte.

Die Mikroruckler sind ein großes Problem.
Normale-User werden eine solche Karte nicht brauchen und die High-End Freaks werden sich die Karte nicht kaufen, um mit 200 Fps zu spielen.
Wenn man alles schön aufdreht, machen sich die Mikrorucklern bemerkbar,
= für mich unspielbar.

Wer mit Mikrorucklern leben kann, wird auch mit einer 200€ Karte leben können, und in "normalen" Einstellungen seine 60FPs haben mit einer SingelGPU.


Gibt ja sowieso noch keine Games wie damals Crysis, Ultima9, Fear z.B, bei den man umsteigen "musste", falls man das Game erleben wollte:)
 
Die GTX470 sieht eigentlich ganz gut aus.
Das einzige was stört ist die Leistungsaufnahme unter Last und im 2 Monitor Betrieb. Nur kommt das gleich daher mit ner enormen Laustärke. Das könnten Custom Designs lösen, ist dann nur die Frage ob die dann auch noch preislich interessant sind.
 
Du redest von "Sinn" und "brauchen". Ich hingegen habe die Fakten des Tests herausgenommen.

Nur weil man verschiedene Dinge nicht braucht darf man diese nicht ignorieren. Die HD5970 ist nunmal das Maß und daran muss man sich orientieren. Ob man will oder nicht.
 
Feyn schrieb:
blahblah.gif

DvP schrieb:
Ich würde an deiner Stelle Tesselation nicht unterbewerten. Wenn du dir den Heaven Benchmark ansiehst, wirst du an so einigen Ecken sehen wie mächtig dieses Feature ist, auch wenns dort sogar übertrieben wurde. Das "aufpumpen" kommt nur von der halbherzigen Implementierung. Bessere Grafik braucht nicht mehr "Polygone"? Viele Grafikblockbuster leiden unter "eckigen Rundungen", aber man hat sich eben etwas daran gewöhnt.

Was fällt dir beispielsweise bei dem Rocketlauncher auf?
http://sauhaufen-clan.de/news/inc/tinymce_files/bad-company-2-screenshots__6_.jpg

Da sehen wir wohl den Unterschied zwischen Casual- und Ambitionierten Gamern. Eine Diskussion lässt sich hier wohl bereits an dieser Stelle beenden. Die Casual-Gamer lassen sich dann noch in 2 Gruppen splitten, die Uninteressierten und die Querulanten.

Mir als ambitioniertem Gamer ist es wichtiger, ne Partie L4D2 Versus zu gewinnen als darauf zu achten, welche Verbesserungen mir HQ-AF bringt. Ich hab andere Sachen im Fokus als die Qualität entfernter Texturen. Das Spiel muss einen grafisch runden Eindruck machen. Uns wenn es um Einzelspielerspiele geht liegt mein Fokus auch auf Story, Gameplay und Gesamtpräsentation. Ansonsten hätte ich mich auch permanent über matschige Texturen bei BioShock aufregen können. Den Fokus auf derlei Kleinigkeiten zu legen liegt in der Natur der Querulanten.

Abgesehen davon ist es Sache der Spieleentwickler, solch eklatant-auffälligen Grafikschwächen zu vermeiden. Tesselation hin oder her, als Spieledesigner sollte man von vornherein in der Lage sein, Rundungen mit mehr als 8 aus Polygonen bestehenden Quadern zusammenzusetzen. Aber seit mindestens einem Jahrzehnt ist es Spieledesignern nicht gelungen, Fahrbahnmarkierungen in Kurven rund darzustellen. Es sind weiterhin aneinandergelegte Vierecke.

Ist natürlich bequemer, das die Graka übernehmen zu lassen - sofern es implementiert wurde. Das ist alles aber natürlich ein gutes Argument für die zukünftig drohende Stagnation der Grafik. Da sowieso alles "vercasualiert" wird um auch auf Konsolen zu laufen, bezweifle ich, dass die Entwicklung weiterhin derart voranschreiten wird wie früher. BF1943 ist beispielsweise eher wieder ein grafischer Rückschritt, damit es aber auch möglichst viele Leute spielen können. Und das Gameplay steht im Vordergrund.

Far Cry habe ich selber gespielt und mich eher über phasenweise auftretende KI-Aussetzer und so manches Gegner- und Leveldesign aufgeregt, als über die Grafik. Grafikbugs sind mir irgendwie nicht aufgefallen oder haben keinen bleibenden Eindruck hinterlassen. Bei Anno 1404 darfst du dich gerne nochmal näher informieren, dann fällt dir auf, dass die Spieleentwickler Schuld sind. Mafia II als Blockbuster zu bezeichnen spricht für Fanboy, aber das bist du ja bei NVidia schon. Das Deckungssystem wurde kürzlich rausgenommen weil sie es nicht mehr rechtzeitig fertig kriegen, und das, was ich bisher an "zerstörbarer" Umgebung gesehen habe ist nicht nur unrealistisch sondern aufgesetzt und es wiederholt sich. Das kann man fast schon scripten.

NVidia's Produkte (!) deswegen hervorzuheben, weil die Firma Geld ausgibt, damit Spiele auf NVidia-Karten besser laufen, ist recht geschmacklos, dafür können weder ATI noch der Gamer was. Das macht die PRODUKTE aber nicht BESSER.

Achso und Feyn, meine Meinung mag dir nicht gefallen aber ich bilde sie mir selber statt wie du anderen nachzuplappern, wie toll gewisse Features sind. Welche Auffassungen hatte Bill Gates vor ein paar Jahren von Notwendigem und Nicht-Notwendigem? Prost.
 
Zuletzt bearbeitet:
@JokerGermany:

"Für 3D Vision wirst du, anders als für Open Stereo 3D, 2 Grafikkarten benötigen, genauso wie bei Physx"

Wieso denn zwei Grafikkarten.....habe doch bereits erfolgreich und faszinierend 3D 'Vision laufen mit ner GTS250er und freuen tu ich mich schon auf Metro2033 und Bioschock2 die expliziet NVIDIA Technik unterstützen. Gerne wäre ich auch bereit hier umzusatteln (bin mit Nvidia nicht verheiratet und Aktien habe ich auch keine ;)) aber was hier von ATi kommt "AMD startet "Open Stereo 3D"-Initiative" sind doch nur Ankündigungen oder Absichtsbekundungen mehr leider nicht. Die sollen mal endlich anfangen.

greetz c28
 
Zuletzt bearbeitet:
Also ich halte die Fermis nicht für ein Zwangsrelease ... die Entwicklung bei nVidia geht einfach in eine Richtung die vielleicht ein Problem ist.
Man geht immer mehr in die Richtung die Grafikkarte als Alleskönner die dem Prozessor den Rang ablaufen soll. Siehe CUDA usw. und die Fermi ist eigentlich ein kleiner Supercomputer um alle möglichen Berechnungen durchzuführen.
Der G200 war ja schon ein Monster von der Große her, dafür ist der Takt nicht so hoch. Die Entwicklung ging jetzt beim Fermi G100 weiter. Die erbrachte Leistung ist doch unbestreitbar ... nur wird sie teuer erkauft.
Vielleicht hätte man die Taktraten nicht so hoch ansetzen dürfen, die Karten wären nur gleich schnell wie die ATIs dafür wäre der Verbrauch auch im grünen Bereich.

Weiters gibt es auch Probleme mit der Fertigung, vermutlich ist die Qualität der Chips nicht wirklich gut bzw. streut die Qualität zu sehr, darum musste man höher Spannungen wählen um die Chips zum laufen zu bringen. Bei so einem Monster mit 3 Milliarden Transistoren macht ein wenig mehr Spannung schon einen gewaltigen Unterschied aus.

Zur Zeit werden die Karten auch benötigt ... seht euch nur Spiele wie BF2 Bad Company an ... selbst eine GTX 285 bricht hier teilweise ein.
Zukünftige Spiele werden von den Tesslationseinheiten ordentlich gebrauch machen und dies ist eine große Stärke der Fermis.
Hier wird ATI auch nicht um eine Vergrößerung ihrer Chips umher kommen nur die Taktraten anzuheben wird nicht reichen.

Der HighEnd-Markt ist doch nur ein kleiner Teil dessen was nVidia alles anbietet. Im Notebookbereich sind sie doch führend und auch mit den Mittelklasse und OEM Produkten führen sie was die Marktanteile betrifft.
Ich denke auch im professionellen Bereich und auch in der Forschung kann man mit den Fermis gut Marktanteile machen.
Daher hier von einem Ende von nVidia zu sprechen ist nicht ernst zu nehmen.

Mal sehen wie es mit der Verfügbarkeit aussieht ... scheint bis auf ein paar einzel Exemplare noch keine große Verfügbarkeit zu geben ... bei eBay werden Karten ja schon für 700 € angeboten.
 
Zurück
Oben