Test Test: Nvidia GeForce GTX 470

nur 30% schneller als meine alte Karte bei etwas mehr Stromverbrauch und doppelter Lautstärke... im Vergleich zur alten Generation. Nö, das wird nichts. Da gibts kein Schönreden.
Deutlich leisere Kühllösungen müssen da her und selbst dann greift der vernuftbegabte Gamer zur deutlich besseren 5870 oder 5850.
 
Wenn die Karte sparsam wäre mit so ca. 100 Watt Verbrauch und man sie dann mit bis zu 20% Übertaktung zu einem richtigen Räuber takten kann, würde ich sie sogar kaufen. Aber leider bleibt das bislang nur Wunschdenken. Eventuell klappts ja im 28nm Prozess. Aber selbst dort gilt, dass man ein kluges Chipdesign benötigt und nicht nur Masse anstatt Klasse anbietet.

Wer weiß schon, wann TSMC den 28nm Prozess überhaupt serienreif und großflächig anbieten kann? Nicht einmal der aktuelle 40er ist zufriedenstellend abrufbar.
AMD/ATi ist nach dem verpatzten HD2900 mit einer überschaubaren, handzahmen HD3000 Serie mit Kampfpreisen zurückgekehrt und hat sich gefangen. Hoffentlich gelingt das Nvidia ebenfalls.
Es mutet schon fast wie Hohn an, wenn man bedenkt, dass eigentlich seit dem Knaller "G80" nur noch absurd Große Aufgüsse gekommen sind.
Es wird im Grafikkartenmarkt mal Zeit für einen Sprung in Richtung Energieeffizienz ähnlich dem des Presskopf hin zum Core2Duo. Andererseits enttäuschen (mich) die meisten Spiele ohnehin ...

Irgendwie mutet das alles merkwürdig an. Als Referenz werden Spiele genommen, die so eigentlich kaum noch jemand spielt wie das gehaltlose Crysis von 2007 oder aber das eigentlich nette Metro 2033, das aber nur rund 10 Stunden Spielspaß liefert. Ein wenig ernüchternd ist das. Eventuell ist Mafia II mal wieder ein Grund aufzurüsten.

Edit:
Die HD5870 verbraucht 305 Watt im Gesamtsystem. Das System ohne HD5870 würde ca. 140 Watt verbrauchen, da die HD5870 allein ca. 165 Watt zieht unter Last. 140+165=305. Da die GTX470 allerdings 375 Watt im Gesamtsystem verbraucht, kann man davon ausgehen, dass sie ungefähr alleine rund 230 Watt saugt, rein rechnerisch. Merkwürdig ist dabei allerdings, dass die GTX480 laut HT4u.net "nur" ca. 230 Watt verbrauchen soll.
 
Zuletzt bearbeitet:
so wie das hier schon einige geschrieben haben, die leistungsaufnahme ist eigentlich irrelevant, es sei denn der rechner läuft 24/7. Aber ansonsten macht sich die stromaufnahme nicht deutlich bemerkbar wenn man es hochrechnet, wer die 500 euro für solch stück hardware übrig hat, wird am ende des jahre bei der stromabrechnung nicht arm werden.

das was an der GTX4XX sehr störend ist, ist die geräuschkulisse. Für das was sie leistet bringt sie einfach zu viele negative aspekte mit sich. ATi hat in diesem Sinne das bessere Konzept. Wenn die Preise auf das Niveau zum release wieder zurückkehren, denn hat Ati glaube ich garkeine Konkurenz mehr. Leider ist die Ausbeute auch bei denen nicht die beste, dass sie die 58X0 so zahlreich liefern können.
 
Warum bencht ihr nie GTA4 ?
Das wäre mal echt interessant.

Und aktuell jawohl auch Bad Company 2.

Also GTA4 wäre echt mal wünschenswert. Das hätte ne Aussagekraft.
Ihr solltet euren Benchmarkparcour mal ausmisten, wäre euch sehr verbunden.
 
Halten wir fest.

Die GTX 470 ist so schnell wie eine HD 5870 (einfach mal noch auf die Performancetreiber warten, die Architektur ist noch nagelneu und die GTX 470 wird sich sicherlich leicht vor der HD 5870 positionieren).

In Tesselationsanwendungen (was in Zukunft eher häufiger eingesetzt werden wird und nicht seltener) ist sie haushoch überlegen (Metro 2033).

Sie bietet das bessere und flimmerfreie HQ-AF.

Sie untersützt PhysX (Mafia II).

Sie unterstützt CUDA.

nVidia arbeitet enger mit den Spieleentwicklern zusammen (TWIMTBP) und hat die besseren Treiber (mit einer Radeon gibt es in Mafia immer noch Schattenbugs, in Gothic 2 den miesen Performancebug, bei aktuellen Spielen fehlen teilweise einfach Details und man muss auf den Bugfixtreiber vom Bugfixtreiber warten etc.).

Sie hat mehr VRAM.

Sie kostet nicht mehr als eine HD 5870 (sie ist sogar für weniger gelistet).

Contra: 70 Watt höhere Verlustleistung unter Last.

Hätte ich ein stärkeres Netzteil und wollte über 300 € für eine Grafikkarte ausgeben, wüsste ich, was ich holen würde.
Ergänzung ()

milamber! schrieb:
Wo hat man denn zur Zeit mit einer 5850/70 Schwierigkeiten in 'aktuellen' Titeln, oder anders gefragt; woran erkenne ich das ich unter keinen Umständen Schwierigkeiten mit einer GTX470 in DX11/Tessellation haben werde?

Na hier:

GF100-Metro-DX11-1920.png
 
Frage ist hier in den Test die GTX480 besser mit den Last Stromverbrauch??? war das nicht über 520Watt gewesen?.
 
Mich würde mal interessieren, ob nicht in naher Zukunft zwei solcher GTX4xx Kerne auf so einem Grafikboard sitzen werden.

Dann wären nVidia rein theorethisch hoch überlegen, wenns denn die Leistung erhöht. Vorraussgesetzt sie verfolgen diese Marktstrategie.

Und ich kann mir gut vorstellen, dass solche Karten vielleicht sogar noch Ende des Jahres auf den Markt kommen. Ist natürlich nur ein Gerücht, aber vom zeitlichen her würde es zu nVidia passen.
 
Wird es nicht geben. Wie soll das auch zu realisieren sein angesichts der Leistungsaufnahme?
 
Erstmal wieder sehr guter Test CB!
Ja da wird die ganze Miesere von Nvidia nochmal deutlicher, sie haben den in der Produktion deutlich teureren Chip, der mehr Strom benötigt, Lauter ist und trotzdem nicht wirklich schneller geworden ist. Im Prinzip müsste Nvidia eigentlich deutlich im Preis runter gehen, aber ich denke nicht das sie dazu in der Lage sein werden.
Mfg
 
Naja, der Fermi wurde nie für spiele entwickelt, sondern für den Profi bereich...da hat man noch den DX Pfad dazugegeben, Tadaaa spiele laufen
für Cad is die karte bestimmt der Hammer :P

aber leute, bevor ihr euch das ding kauft, kauft ne HD5850/70, nen Prolimatech MK13, und dann könnt ihr schön an der spannung und der Taktrate schrauben, und lasst die GTX470/80 weit hinter euch, bei gleicher/weniger leistungsaufnahme
 
Choco2 schrieb:
Es wäre echt mal gut, wenn ihr die reine Leistungsaufnahme von der Graka alleine messen würdet.

Nur ist das leider nicht so einfach und der Mehrwert einer solchen Messung würde den Aufwand nicht rechtfertigen. Wie du schon richtig erkannt hast, ist der relative Mehrverbrauch durch die Grafikkarte erheblich höher als es das Chart zeigt, denn man muss ja den Grundverbrauch des restlichen Systems abziehen.

Aber da du das schon erkannt hast, kann du die Zahlen ja sicherlich gut einordnen und brauchst diese Messung gar nicht mehr. :)
 
oh mann.lange auf die Karte gewartet ( den HD5850 kauf immer wieder verschoben ) und dann sowas.Leitung ist ok - Temperatur und Lautstärke gehen gar nicht.Dann kann man mal hoffen das es schnell Custom Designs der Hersteller gibt - ähnlich der Sapphire Vapor-X oder Powercolor PCS+ - die haben Top Kühler.Sowas braucht Nvidia jetzt.

P.S. Kann mir jemand mal erklären warum eigentlich immer zuerst die Referenzkühler verbaut werden obwohl diese in Tests immer schlecht wegkommen.Die Hersteller müssten doch wissen das die meisten Käufer lieber leisere kühler wollen und deshalb oft auf die Custom Designs warten.
 
CockyBocky schrieb:
aber leute, bevor ihr euch das ding kauft, kauft ne HD5850/70, nen Prolimatech MK13, und dann könnt ihr schön an der spannung und der Taktrate schrauben, und lasst die GTX470/80 weit hinter euch, bei gleicher/weniger leistungsaufnahme

naja ob dich das auf dauer glücklich macht weis ich auch nicht...
ich habe das mal getestet und der mehrverbrauch bei übertaktung ist schon ziemlich heftig, wie ich finde..
furmark ca. +60watt spiele +50watt

hier gepostet;)
(bitte beachten, was als zusatz dasteht: es hingen mehr sachen dran als nur pc! sonst hätte es mein 550watt netzteil auch sicher nich mit den werten gepackt!)
 
CR4NK schrieb:
Wer weiß was mit Undervolting noch so drin ist. Ich sag nur 8800GT und GTX280;)

so sehe ich das auch, viele hier reagieren übermäßig enttäuscht von der Karte, ich hingegen sehe dass die Karte vieles besser als die GTX 480 macht. Gerade der idle Verbrauch überrascht, deutlich besser als die 480er dabei sind die Karten kaum verschieden.

Die Frage ist, ob bei der 470er auch konstante Spannungen anliegen und ob diese manuell anpassbar sind. Für die Mehrzahl an Käufern ist Bios Editing wohl ausgeschlossen, für jemand der sich aber damit zu beschäftigen weiß kann man nur raten erste Ergebnisse abzuwarten.


Schaffe89 schrieb:
Für mich ist die GTX470 mit einem Custom Design viel erstrebenswerter als ne olle GTX480, die auch mit Custom Design sehr heiß und laut werden wird. Übertaktbarkeit gleich null.
Die GTX470 ist da wesentlich sympathischer.

da stimme ich dir zu. Dass 480-> 448 Shader und bissle weniger Ram so großen Unterschied machen hätte ich nicht gedacht, dachte die 470er kommt weit enttäuschender daher. Für eine Karte die eigentlich weniger fürs Spielen optimiert wurde, eine akzeptable Leistung.

y33H@ schrieb:
@ Mister-Knister

Nein. Eine GTX480 etwa macht bei 92° im Furmark "nur" 76%. Die Temps sind also Absicht und der Lüfter hat noch viel Spiel nach oben.

Ganz klar, wer mit Luft ein leises System haben will, der muss auf die HD 5870 / HD 5850 setzen mit alternativem Lüfter - oder Bios modifizieren. Prinzipiell sehe ich die Stärken der GTX 470 / 480 mehr unter Wasser. Ich denke erst dort kann sie nach oben raus ihre Leistung entfalten. Die Temperaturen dürften 50°C kühler ausfallen, was sicher auch gute Taktsteierungen ohne Spannungserhöhung mit sich bringt. 750 mhz + sind ordentlich, 20%. Unter Wasser könnte mehr drin sein. Mich interessiert Max Leistungsaufnahme nicht allzusehr, man darf gespannt sein was die VRs der Nvidia Karten abkönnen, wenn sie halbwegs taugen sollten nahezu 1000 Mhz mit Wasser + Bios + leichten v+ gehen.

Ich weiß, dass die Karte für das was wir sie brauchen, Spieleleistung, ineffizienter als die ATI ist, das sieht man deutlich in der DIE Größe und im Verbrauch. Das liegt denke ich nicht daran, dass NVIDIA architekturell Müll gebaut hat, sondern eher daran, dass der Fokus anders (mehr auf GPGPU) gesetzt wurde.

Die HD5XXX ist auch super zu übertakten. Wasser gehen hier ca 1100-1150, aber auch nur mit V+. Man darf gespannt sein. Die schlechte Verfügbarkeit hat leider mangelnde Forenberichte zur Folge.

Complication schrieb:
Es fehlt 1 Polymporphe Engine bei der 470. Und Fermi hat keine "klar getrennten" Tessellation Units
14-1080.2697800676.png

Die Polymorphe Engine erfüllt 5 Aufgaben - das macht sie nicht gleichzeitig. Man beachte mal die Benches bei höheren Auflösungen (2560x1600) wo die Fermis einbrechen - ich denke dass zukünftige Spiele gerade dort mehr Last verursachen wo eben Multi-Monitor Setups ins Spiel kommen verstärkt. Diese Aufgabenteilung wird um so mehr Einfluss haben je kleiner die Karten werden.

joa, so wie ich das verstanden habe schöpfen die Nvidia Karten ihre Leistung aus "einem Pott" - so hat Tessellatoren auch weniger GPU Leistung für den anderen Krams zur Folge. Ich denke aber diese Art der Tessellation ist zumindest flexibler, da sie dynamisch je nach Anforderung geschalten werden kann. Ohne Tessellation kann die GPU sich voll um die 3D Darstellung kümmern, ist 100% ausgelastet, mit Tessellation schaffe ich genauso 100%. Eine fixe Tessellationseinheit langweilt sich hier also. Dagegen wir ein Hardware Tessellator sicher weniger Platz brauchen und effektiver arbeiten. Ich denke die Vor / Nachteile beider Systeme zeigen sich erst in den nächsten Monaten und kommenden wirklichen Dx11 Spielen.

Auf keinen Fall kann man die Lösung von Nvidia hier schlechtreden - die Tessellation dynamisch zu lösen. Dafür ist es zu früh und bisher überzeugt die Lösung in der Tessillationsleistung, also sollte man sie eher loben ;)

milamber! schrieb:
Niemand bestreitet das der GF100 in Tessellation gewisse Vorteile hat, aber das ist noch lange kein Grund aus ner Mücke nen Elefanten zu machen, und die Heaven Werte immer und überall auf die Zukunft zu projizieren.

joa das mag stimmen. Das ganze Tessellationsthema ist noch nicht abschätzbar. Allen Anschein nach gewinnt die Nvidia Architektur hier um ein paar Prozentpunkte, was aber den Brei nicht fett macht. Die Frage ist, wie sich die HD5XXX mit fixem Tessellator verhält, wenn sie mit der Tessellation nicht nachkommen sollte, die Einheit überlastet ist. Nvidia kann hier dynamisch auch viel Leistung dieser Aufgabe zukommen lassen.
Folglich muss AMD schauen, dass sie IMMER genug Tessellationspower haben, diese wird sicher mit kommenden Karten erhöht.
Ich frage mich wieso die Performance auch bei den ATI Karten mit zugeschaltener Tessellation so einbricht, eigentlich sollte dank Hardware dass eigentlich nahezu "nebenbei" gehen. Geht es sicher auch, aber die eigentliche 3D Darstellungsaufwand nimmt wohl auch ordentlich zu. Blöd wirds dann, wenn der Tessellator zum Flaschenhals wird. Kann man schwer sagen wann dies der Fall ist, oder ob das bereits heute auftritt und für den Einbruch verantwortlich ist.
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Die Lüftersteuerung einer 8800GTX ist auf 80Grad und die einer 8800GT auf 90Grad eingestellt. Sterben diese Karten in Massen -> nein -> also warum sollte es Fermi tun?

Nanana, nicht in Massen, aber doch relativ oft!
Schau dir mal das CB Nvidia Forum an und wieviele 8800 Besitzer dort mit Karten ankommen die nach 1,5-2,5 Jahren Grafikfehler haben! Das ist unter anderen auch auf die hohen Temperaturen zurückzuführen, mit denen die 8800er Serie gelaufen ist.

Auch die Tatsache, das ein "Backen" das Problem kurzzeitig behebt sagt das aus.
Hitze, auch in dieser von NV vorgegebenen unkritischen Höhe, ist mit Sicherheit bedenklich für eine Grafikkarte, auch für einen Fermi.

Mich hats was die 8800 angeht übrigends auch getroffen. Nichtmal 2 Jahre hat se geschafft...
 
Schade, an und für sich, für mich die ideale Karte (habe halt einen leichten Nvidia Tocuh). Allerdings, die GPU Temp unter Last und die Lärmlastigkeit sind für mich ein KO Kriterium. Stromverbrauch ist mir egal... aber das Kühlt doch mein Miditower nicht mehr :(
 
@ Feyn

*seufz* Guten Tag Herr Otto-Normal-Testberichtleser.

Die GTX 470 ist so schnell wie eine HD 5870 (einfach mal noch auf die Performancetreiber warten, die Architektur ist noch nagelneu und die GTX 470 wird sich sicherlich leicht vor der HD 5870 positionieren).

Die GTX470 liegt im Schnitt mehrere Prozentpunkte hinter der 5870. Ausnahmen gibt es immer und ob die Prozente beim Spielen auffallen hängt vom Nutzer ab. Die Grakas auf die gleiche Ebene zu stellen ist trotzdem falsch. Und was mit Treibern kommt bleibt abzuwarten. Vielleicht ja wieder eine kaputte Lüftersteuerung, das wars dann mit der Fermi. :rolleyes:

In Tesselationsanwendungen (was in Zukunft eher häufiger eingesetzt werden wird und nicht seltener) ist sie haushoch überlegen (Metro 2033).

Tesselation ist auch unglaublich wichtig. Hauptsache meine Graka kann das, auch wenn ichs nicht brauche, irgendwann wirds bestimmt ganz toll sein. Du scheinst ja mit Spieleentwicklern aus Übersee befreundet zu sein oder woher nimmst du deine Zukunftsvisionen? Abgesehen davon braucht niemand diese Technologie, da Grafik dadurch nur aufgepumpt wird, nicht detaillierter. Für bessere Grafik braucht man heutzutage bessere Texturen, Shadereffekte und Animationen, nicht noch mehr Polygone.

Sie bietet das bessere und flimmerfreie HQ-AF.

Sie untersützt PhysX (Mafia II).

Sie unterstützt CUDA.

Werbeopfer. HQ-AF, ohooo. Weil AF vorher auch unglaublich scheiße aussah und rein gar nichts gebracht hat. Heil dem Heiland nVidia. PhysX ist beim Zocken auch sehr wichtig. Solange du keine Zweitgraka als PhysX-Lieferant im PC hast bleibt die Performance hier sowieso limitiert. Und CUDA braucht in diesem Forum ne Handvoll Leute, die Zielgruppe der "GeForce"-Reihe schonmal überhaupt nicht.

nVidia arbeitet enger mit den Spieleentwicklern zusammen (TWIMTBP) und hat die besseren Treiber (mit einer Radeon gibt es in Mafia immer noch Schattenbugs, in Gothic 2 den miesen Performancebug, bei aktuellen Spielen fehlen teilweise einfach Details und man muss auf den Bugfixtreiber vom Bugfixtreiber warten etc.).

Dass die Spiele-Entwickler es sind, die hier failen, weißt du scheinbar nicht. Abgesehen davon - wer spielt noch Gothic 2 und Mafia? Komm mal ausm Keller. Und ich hab lieber leichte Treiberprobs, die nach nen paar Wochen behoben sind, als ne kapütte Lüftersteuerung mit WHQL-Siegel. Prost. Aber vielleicht findest du bei UT2003 und Half-Life 1 noch ein paar Grafikbugs die du hier anführen kannst. Über einen Link zu Grafikfehlern in "aktuellen" Spielen, die einem beim Spielen auffallen, wäre ich sehr erfreut.

Contra: 70 Watt höhere Verlustleistung unter Last.

Hätte ich ein stärkeres Netzteil und wollte über 300 € für eine Grafikkarte ausgeben, wüsste ich, was ich holen würde.

Ja. Das aktuelle Netzteil behalten (in meinem Fall) und auf die HD6xxx warten. Guten Tag.
 
Zuletzt bearbeitet:
Mojo1987 schrieb:
Mich hats was die 8800 angeht übrigends auch getroffen. Nichtmal 2 Jahre hat se geschafft...

Joa auch mit der mobilen Variante gab es extrem viele Probleme.
Von gestorbenen G200 habe is bis heute nichts gehört, aber oft liegen die Probleme garnicht an der GPU selbst, sondern zB an zu heiß werdender Spannungswandler.

Mein HD4850 wird auch bald den Geist aufgeben, die Spannunsgwandler sind einfach zu warm geworden - schleichend brauche ich mehr Spannung für die GPU. Schon heute ist kein MultiMonitorbetrieb ohne VMod drin ;)

Die Karte machte einst 910 Mhz - heute ist bei 800 Ende xD

Klar, es quält nicht jeder seine GPU so. Aber die HD4890 sieht mit gleichem Chip mehr Spannung, was für mich bedeutet dass es an den VRs liegt. Ab 1,4V gehen dann die roten Lämpchen an und die Karte schält sich aus. Deswegen hoffe ich , dass die VoltageTweakable Karten auch ordentliche VRs mit sich bringen, die ich auch wasserkühlen werde. Den Fehler mach ich nicht nochmal xD

@Qbix

man kann sich auch alles mit Nachdruck schlecht reden.

AF sind ich sehr wichtige, und AF ist neben 4xAA eigentlich das, was unverzichtbar ist. Aber in Sachen Bildquali werden sich ATI und Nvidia nicht viel schenken.
PhysX ist ein Gimmik, zugegeben, ich habe es schon einige male vermisst, auch wenn ich kein Fan von PhysX bin.

Sicher weiß man seit HL2, dass Physik sehr gut ohne GPu realisierbar ist. Ich könnte 4 con 6 Kernen an Physik verschwenden ohne dass ein Spiel manels CPU Leistung ruckeln würde. Nur kann man darauf nicht auf die Masse schließen.
AMD /ATI hätte gut daran getan, schon länger eine offene Lösung zu entwicklen. Eine PhysX Konkurrenz. Auch eine die man breit bringen kann. Seit Dx11 kein Problem. Leider gibt es sowas noch nicht.
PhysX wäre mir jedenfalls weit wichtiger als Eyefinity.

Cuda genauso. Wenn es ordentliche Software für ATI gäbe, die die Rohleistung 1:1 in Video Encoding umsetzen würde, wäre ich schon längt Besitzer einer HD5870.
Es gibt einfach kein gutes Gegenprodukt, bzw es mag gut sein, findet aber keine Verbreitung. Entwickler scheinen mit Cuda 10 mal mehr als mit Stream anfangen zu können.
Und sicher nicht nur weil nvidia besser zahlt.

Nvidia hat seine Gimmiks, AMD genauso. Nur leider kommen Nvidias Gimmiks viel häufiger zum Einsatz. Wird Zeit, dass mit DX11 und Open CL eine einheitliche Engine für die Beschleunigung von Software auf den Markt kommt.
 
Zuletzt bearbeitet:
Es wäre echt mal gut, wenn ihr die reine Leistungsaufnahme von der Graka alleine messen würdet.
Leichter gesagt als getan. Dazu muss man erstmal das richtige Messequipment haben.

Die Frameverläufe werden bei mir nicht angezeigt?
Da gabs ne kleine Panne...funktioniert nun aber :)

Beim Heaven Benchmark sieht man, dass die Tesselation Einheiten von NV wohl etwas mehr Bums haben. Leider sagt dieses Review nichts zu dem Thema aus, da bei Stalke CoP leider Tesselation deaktiviert wurde und der Einsatz in Dirt2 eher dezent ausfällt.
Warte noch was, dann kommt auch bei uns ein Special-Artikel, der zeigt wer wieviel Bums mit Tessellation hat :)

erstaunlicherweise lässt sich diese Karte trotz des Energieverbrauchs un der misserablen Kühlung so gut
übertakten. Habt ihr auch die Energieleistungs- und Temperaturmessungen in dem OC-Zustand gemessen
und wenn ja könntet ihr diese noch in den Test mit einbinden oder vielleicht separat hier posten?
Also die Temperatur hat sich bei den OC-Tests lustigerweise nicht erhöht, genauso die Lüfterdrehzahl. Zur leistungsaufnahme kann ich da leider nichts sagen.

https://www.computerbase.de/2010-04/test-nvidia-geforce-gtx-470/9/#abschnitt_risen
Hier in Risen ist die HD5870 schneller als die HD5970
https://www.computerbase.de/2010-04/test-nvidia-geforce-gtx-470/14/
Und hier in Red Faction: Guerilla ist die GTX480 schneller als die DualGPU.
Gibt es da Gründe dafür die bekannt sind (Treiber, Spiel?)
Risen unterstützt kein CrossFire und in Red Faction gehen die GTX 400 einfach nur verdammt gut ab.

Wo hat man denn zur Zeit mit einer 5850/70 Schwierigkeiten in 'aktuellen' Titeln, oder anders gefragt; woran erkenne ich das ich unter keinen Umständen Schwierigkeiten mit einer GTX470 in DX11/Tessellation haben werde?
Nunja, der GF100 hat einfach mehr tessellation-Power als der RV870, das ist einfach so. Das werden wir bald auch in ienem Test hier feststellen^^ Es ist natürlich fraglich, ob das in Zukunft auch so weiter geht, bzw. ob Tessellation bis jetzt mal wirklich sinnvoll eingesetzt wird. Bis jetzt ist es zumindest noch nicht sinnvoll. Die sinnvollste Tessellation gibt es imo noch in Dirt 2 und da kostet die fast absolut null Leistung.

In Tesselationsanwendungen (was in Zukunft eher häufiger eingesetzt werden wird und nicht seltener) ist sie haushoch überlegen (Metro 2033).
Wenn ihr immer Metro 2033 und tessellation anführt: Imo ist Tessellation in Metro 2033 gar nicht dxas Problem der ATis. Sondern Depth of Field bzw. allgemein Post Processing.
 
Zurück
Oben