Test GeForce GTX 480 im Test: Nvidias neues Grafik-Flaggschiff sucht die Extreme

Hmm .. ja genau .. die Lügen den ganzen Tag .. ist deren liebstes Hobby ... :rolleyes:

Wattebaellchen schrieb:
Die Rechnug geht eh nicht auf, da das heizen mit Strom mit Abstand die teuerste Art der Wärmeerzeugung ist :lol:
Kann sein ... wenn man allerdings eh schon mit Strom heizt, kann man auch statt der Heizung seinen PC benutzen.
Für Leute, die mit Strom heizen, relativieren sich also die Kosten durch den Stromverbrauch des PCs. Der erzeugt in dieser Zeit dann keine Mehrkosten.
 
JokerGermany schrieb:
Genau das ist das Problem.
Viele denken so und somit spart man auch nichts...

Mir ging es bei dem Vergleich aber um die Verbreitung solcher Hardware. Und die ist eben nicht sonderlich groß. Gerade auch wenn man bedenkt, wieviele Rechner weltweit 24/7 nur vor sich rumdümpeln. Und da wird der Fermi-Anteil sicherlich bei gegen Null sein. Eben weil die Karte sauteuer ist, zumindest aus heutiger Sicht.
 
Ich glaube nicht, dass der V-Ram den Verbrauch sonderlich in die Höhe treibt. Vergleiche dazu einmal Verbrauchstests zwischen 1GB und 2GB Karten.
Liegt eher vielmehr an der höheren Auslastung der Karte durch 6 Displayports usw..
Richtig zum gleichen Schluss bin ich auch gekommen. Fermi hat ja eher niedrig getakteten GDDR5, den kann man theoretisch leichter verdoppeln bei gleicher Chipzahl, eher unwahrscheinlich das da noch Vram Chips auf die Rückseite kommen.

man sollte auch beachten das die 5850/5870er im 2D Bereich, also Windows Oberfläche etc. deutlich hinterherhinkt.
Wie schauts da eigentlich mit alten 2D Games aus ala Baldurs Gate oder Arcanum, kann es sein das einer mobilen HD 5770 da der Saft ausgeht? Gibts da schon Berichte von?

Die Karten von AMD haben eben auch ihre Macken und sind nicht über alle Zweifel erhaben
Es wurde ein Treiberfix versprochen, gibts da schon neue Tests wie der dann geholfen hat?


Die Sache mit dem einen Jahr Garantie ist natürlich vollkommen daneben. Sollte zu denken geben, auch wenn ich Fermi nicht als komplette Fehlentwicklung abtue.
Also Gainward hat immer noch 3 Jahre Garantie, da wurde noch nix gekürzt, bei Evga sind es immer noch 10 Jahre...



Hallo, ist der Verbrauch von 480 GTX jetzt gestiegen , vorhin stand noch 250
Ja Geizhals macht so eine Kundenverarsche nicht mehr mit, immerhin muss man sein Netzteil und Gehäuse so auslegen damit die 300Watt Spitzen abgeführt werden können. Und die gibts nachweislich nicht nur in Furmark! Finds nur schade das sowas nicht schon zur HD 4870/90 Zeiten gemacht wurde, da war der Idle und Lastverbrauch auch außerhalb der Norm bzw. Verpackung...


http://de.wikipedia.org/wiki/Nvidia-Geforce-400-Serie#Fermi-Architektur
Übrigens Wiki hat die Die-Fläche gelistet, 529 mm² die hab ich bis jetzt noch nirgends so gesehen. Vorher waren ja 600 mm² im Gespräch.
 
lol, jetzt geht dieser 2D Märchen scho wieder los...als nächstes taucht noch ein benchmark der desktop mausbewegung auf, in dem die geforce karten über alle zweifel erhaben sind... köstlich.


gruß
 
In der CT war mal ein kleine Test zu 2D, (Edit) da haben sie jedenfalls schon einige Misstände gefunden, welche aber auch bei Nvidiakarten nicht viel besser waren, die Problematik trat allerdings nur bei CAD bei ATI ab und an auf, bei Nvidia dafür desöfteren bei Spielen, was ich in Erinnerung hab. Schlimm wars allerdings nicht, wurde viel zu sehr aufgebauscht.
Ich hab viele kleine süße Games, bei denen meine Graka mit den Taktraten unten bleibt.
Hab da noch nie was ruckeln gesehen.
Man muss auch bedenken: Auch wenn die Grafikkarte nur mit 100mhz oder 300mhz oder sonstwas taktet, dürfte sie trotz des niedrigen taktes immernoch schneller sein, wie 5Jahre alte Grafikkarten die Minispiele auch schon flüssig darstellen konnten/können.

//Edit: Mitbekommen hab ich von dem ganzen allerdings überhaupt nichts. Lustig war jedenfalls als iele User dann ein Ruckeln schon alleine beim Scrollen feststellen wollten, was so nie stattgefunden hat, höchstens wenn man 50Fenster gleichzeitig offen hatte.
 
Zuletzt bearbeitet:
Richtig Schaffe.

Da wundere ich mich jedes mal, wenn die Karte sich auch bei einem zweiten Monitor betrieb Hochtakten muss. Damalige PCI und AGP Karten mussten sich nicht Hochtakten, und diese Karten sind ja von der Geschwindigkeit/Leistung nicht an nährend mit dem heutigen Standard zu vergleichen.

GPU: 301MHz; Shader 602MHz; Speicher: 250MHz sollten eigentlich dicke reichen für einen zweiten Monitor
 
Zuletzt bearbeitet:
Der Thread hier hat sehr geholfen, mehr als viele Tests/Reviews oder sonst was da drausen!
Es stand für mich fest, entweder HD 5870 oder GTX 470! Jetzt bin ich mir sicher, daß meine 8800GTX ersetzt wird durch eine HD 5870 als OC-Version!

Es ist leider echt so, daß es bei den heutigen Generationen eigentlich ratsam wäre diese zu überspringen, aber ich habe schon die letzten 2 übersprungen und jetzt ist es an der Zeit, man merkt deutlich das Performance fehlt (zudem ich die restliche Hardware auch erst hoch gerüstet hab).

Ich finde nach wie vor, daß die GTX 470 nicht umbedingt schlecht ist, aber Nvidia hat es wirklich diesmal verpatzt (und das in mehr als nur einer Hinsicht), zudem gibt es die 5870 schon in genügend überarbeitenden Versionen, die diese Karte nun mal ohne Zweifel glänzen lassen (da sie auch ohne hin schon eine feine Arbeit von ATI darstellt)!

Das wird meine erste ATI sein (Noname -> Voodoo 1/2 -> Geforce 4400 -> Geforce 6800Ultra -> Geforce 8000GTX -> HD 5870), aber ich bin mir mittlerweile absolut sicher die richtige Entscheidung getroffen zu haben, nicht nur die Fakten und das Feedback aus dem I-Net allein sprechen dafür, auch die ganze Tour/Art Nvidias zu dieser Zeit lassen keinen Zweifel offen!
 
Zuletzt bearbeitet:
@CyberdyneSystem
Weil unter dem neuen Treibermodell mit DX11 das GDI eben nicht mehr genutzt wird und so die CPU und deren Takt keinen Einfluss mehr hat - daher braucht es mehr Takt bei 2 Monitoren damit es nicht zu Rucklern kommt. Das ist auch der Grund warum diese obskuren 2D Benchmarks von Toms Hardware keinen Traffic auf dem GDI und GDI+ messen und daraus schließen die 2D Performance wäre schlecht bei modernen Grafikkarten.
 
Ja gut, aber meine Karte hat ja kein DX11, und dennoch schraubt er sich hoch. Oder ist es auch bei DX10 der gleiche Fall?
 
Windows 7 nutzt ein anderes Treibermodell als XP. Unter Windows 7 nutzen auch Nvidia DX10 den WDM 1.0 und reduzieren die GDI Last. Zwar noch nicht wie bei WDM 1.1 und DX11, doch es wird verstärkt Direct3D genutzt zum 2D rendern - daher wohl auch dort schon erhöhte Takte für die DX10 Modelle.
 
Wurde bestimmt schon öfters im Thread angesprochen, aber nichts desto trotz ist der maximale Verbrauch der Karte eine Katastrophe Deluxe! Jetzt kommt die Karte schon mit sehr großem Abstand zu ATIs 5000er Serien und dann mit solchen Defiziten... Gute Nacht Nvidia! Und das bisserl mehr an Leistung rechtfertigen die mehr an Wattverbrauch keines Falls. Für'n 3er-SLI kann man gleich zu 'nem NT der 1,2-1,5KWatt Klasse (minimum) greifen :freak: Obwohl die 5000er ATI auch nicht grad ohne im Ziehen von Elektrizität ist, kann man sie bei 'ner Gegenüberstellung fast schon als Öko bezeichnen :lol:
 
Zuletzt bearbeitet von einem Moderator: (Beitrag wiederhergestellt.)
Demokrator schrieb:
Für'n 3er-SLI kann man gleich zu 'nem NT der 1,2-1,5KWatt Klasse (minimum) greifen
Ich frag mich grad, wie man die Wärme bei nem 3er SLI-Gespann abführen will. Die Kühleroberfläche wird ja schon 65° heiß, wenn die Graka vollkommen offen (ohne Gehäuse) rattert. Wenn man da nun oben und unten noch eine dranpackt und das Gehäuse zumacht...wann wird Kupfer flüssig? :evillol: Ne mal ernsthaft, ohne WaKü geht da doch garnix mehr.
 
Also entweder Gehäuse offen lassen und blutende Ohren, oder wie du schon sagst -> Wasserkühlungspflicht -> http://www.maingearforums.com/entry.php?23-So-You-Want-To-Buy-A-GeForce
Obwohl die 5000er ATI auch nicht grad ohne im Ziehen von Elektrizität ist, kann man sie bei 'ner Gegenüberstellung fast schon als Öko bezeichnen
Warum fast? HD 5000er -> Energieeffizienzklasse A++
GTX 400er -> Energieeffizienzklasse X


Wenn ATI Glück hat wirds mit der HD 6000er Reihe wieder so effizient, was aber ein hartes Stück Arbeit wird das mit einer neuen Architektur auch gleich zu schaffen...

Richtig geil wirds wenn die HD 5000er in die CPU wandern ala Bulldozer@Fusion, das dürfte dann Intel gehörig aufschrecken. :daumen:
 
y33H@ schrieb:
Nein, auch die Umgebung an einigen Stellen ...

Da sagt Rebellion was anderes:


"We spoke to Rebellion about tessellation, and they informed us that it was used solely on the Xenomorph character meshes. The highest detail mesh is supposed to have about 18,000 polygons, and they use the hardware tessellation engine to increase that up to ten times. Note that this is PER mesh, so during scenes with multiple Xenomorphs on screen, the increased load brought about by tessellation has the potential to be huge."

Kasmopaya schrieb:
http://de.wikipedia.org/wiki/Nvidia-Geforce-400-Serie#Fermi-Architektur
Übrigens Wiki hat die Die-Fläche gelistet, 529 mm² die hab ich bis jetzt noch nirgends so gesehen. Vorher waren ja 600 mm² im Gespräch.

Ich weiß ja nicht woher du deine Infos beziehst, aber wer schön brav Charlie liest, weiß das schon ne Ewigkeit ;)

"Back to the chip itself. Our moles say it is 23mm * 23mm, or about 530mm^2, and considering they told us that GT200 was 24*24 months before it came out, we will take their word for it."



HOCP hat nochmal n Video mit Temperaturen im Case gemessen. Wens interssiert.



"The GTX 480 is hot. I know many enthusiasts are not going to be satisfied with a video card that idles at 73C (and even hotter in most SLI setups) and runs 93C under pretty much any kind of load. There have to be long term implications to this and I would just suggest that you buy from a board builder that has a rock solid warranty and a reputation for great customer service if Fermi is for you. These cards are hot and can very much raise the temperature in the room you are using your setup in. Maybe NVIDIA can bundle a coupon for a new ceiling fan?

The GTX 480 is loud. The fans however do not become annoying unless they are spun up to very high RPM levels. Even SLI, while you can certainly hear it, is not distracting once you get used to it. Single card noise is manageable if you have a lower ambient temperature to start with and have good chassis airflow. No doubt this is one of the reasons we are seeing a "Fermi Certified" chassis from Thermaltake. If you have good airflow in your chassis, the sound is not annoying high pitched or bothersome. However If you are a person that cherishes silence, the GTX 480 is not for you. "
 
Zuletzt bearbeitet:
@ KAOZNAKE

Dann hatte die Demo-Version mehr drin als das finale Spiel.
 
Legitreviews bekam von Nvidia ein neues Bios für die Geforce GTX 480. :rolleyes:
So hat das neue Bios die Version 70.00.18.00.01 die alte 70.00.10.00.01.

Bei der neuen Bios Version wurden kleinere fehler behoben, so auch ein Hitze fehler wenn 2 Monitore angeschlossen sind.

Ausserdem Informiert Nvidia das die neue GPU-Z Version Fehlerhaft sei. Die 0.4.0. Version von GPU-Z liest Falsche Daten aus und kann auf einigen Boards Abstürtze verursachen, man hofft auf ein Update was die Fehler behebt.

http://www.legitreviews.com/article/1264/1/
 
Und des weiteren hat man auf einen Test mit GPUZ dann verzichtet und stattdessen den MSI Afterburner her genommen, welcher die Daten wohl richtig ausliest, aber auch der gab werte von ~84°C im Idle aus und das, so LegitReviews, ist um einiges zu hoch für das, dass das System eben erst "kalt" gestartet wurde.
 
Enrico Fermi ist im Dezember 1942 die erste sich selbsterhaltende Kettenreaktion gelungen!!!! Atombombe:mad:
 
Zurück
Oben