Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GTX 570 vs. Radeon HD 6900 – Showdown im Dezember?
- Ersteller MichaG
- Erstellt am
- Zur News: GTX 570 vs. Radeon HD 6900 – Showdown im Dezember?
FooFighter
Captain
- Registriert
- Juni 2003
- Beiträge
- 3.164
@Mr_Blonde
Ich sehe das eher wie Kasmopaya. Es kann und darf nicht sein, d. die Hersteller so an die Hardwarelimits gehen. Wenn man AMD Trickserei bei der Bildqulität unterstellt, dann sollte man auch die TDP-Spielchen von nVidia rügen.
Ich mag da nur an einen gewissen Treiber erinnern, der zahlreiche Karten in den Tod gerissen hat..
Die "Handbremse" der 580 liegt vermutlich auch wieder im Treiber. Ansonsten würde man die "Power-Virus-Protection" nicht so einfach umgehen können.
Ich sehe das eher wie Kasmopaya. Es kann und darf nicht sein, d. die Hersteller so an die Hardwarelimits gehen. Wenn man AMD Trickserei bei der Bildqulität unterstellt, dann sollte man auch die TDP-Spielchen von nVidia rügen.
Ich mag da nur an einen gewissen Treiber erinnern, der zahlreiche Karten in den Tod gerissen hat..
Die "Handbremse" der 580 liegt vermutlich auch wieder im Treiber. Ansonsten würde man die "Power-Virus-Protection" nicht so einfach umgehen können.
FooFighter
Captain
- Registriert
- Juni 2003
- Beiträge
- 3.164
Lach... Gut gekontert
Die TDP-Limitierung wird vermutlich einigen in den Hochsommer-Monaten das Spielvergnügen trüben
Nein, darum geht es mir nicht. Mir ist es egal welcher Hersteller diese Spielchen treibt. Ob nun grün oder rot, da darf man dann keine Unterschiede machen. Und richtig, die 48xxer waren da keinen deut besser.
Apropos 4870... Es gibt genügend Anwender/Systeme die unerklärliche Probleme haben (atimdag...nt-power-kernel). Das muss doch alles nicht sein.
Die TDP-Limitierung wird vermutlich einigen in den Hochsommer-Monaten das Spielvergnügen trüben
Nein, darum geht es mir nicht. Mir ist es egal welcher Hersteller diese Spielchen treibt. Ob nun grün oder rot, da darf man dann keine Unterschiede machen. Und richtig, die 48xxer waren da keinen deut besser.
Apropos 4870... Es gibt genügend Anwender/Systeme die unerklärliche Probleme haben (atimdag...nt-power-kernel). Das muss doch alles nicht sein.
Mr_Blonde
Commander
- Registriert
- Apr. 2008
- Beiträge
- 3.049
Ja, klar. Ich verstehe Dich und die anderen, die auf die Grundproblematik hinweisen. Ist auch Euer gutes Recht.
Sobald im praxis relevanten Einsatz solche Probleme eintreten, ist es ja auch nicht mehr okay und stellt einen erheblichen Mangel dar.
Das mit dem Hochsommer ist ein interessantes Szenario. Ich habe mir ne GTX 580 bestellt und werde das mal simulieren, in dem ich den PC im Kaminzimmer aufstelle und den Raum auf 34° aufheize. Dann kann ich ja noch prima entscheiden, ob sie zurückgeht oder nicht.
Hält sie diesem Test stand, sind auch diese Bedenken ausgeräumt.
Also, Danke für den Tipp mit dem Hochsommer.
Sobald im praxis relevanten Einsatz solche Probleme eintreten, ist es ja auch nicht mehr okay und stellt einen erheblichen Mangel dar.
Das mit dem Hochsommer ist ein interessantes Szenario. Ich habe mir ne GTX 580 bestellt und werde das mal simulieren, in dem ich den PC im Kaminzimmer aufstelle und den Raum auf 34° aufheize. Dann kann ich ja noch prima entscheiden, ob sie zurückgeht oder nicht.
Hält sie diesem Test stand, sind auch diese Bedenken ausgeräumt.
Also, Danke für den Tipp mit dem Hochsommer.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
mal ne frage: wäre es euch wirklich lieber, eure grafikkarte brennt durch statt vor ihrem leistungslimit zu limitieren? wenn die gtx480 schon qualmt, rendert die gtx580 noch munter weiter. bei der 4870 wurde erst gemotzt, dass sie im extremfall (der beim zocken nie eingetreten ist, sondern nur im furmark) durchbrennen konnte, dann wurde gemotzt, dass amd genau in solchen situationen die notbremse zieht. was muss man machen, damit niemand was zu motzen hat?
eine schutzfunktion ist imho wichtig und richtig. wem die gtx580 im furmark zu langsam ist, der soll sich ne schnellere karte kaufen.
eine schutzfunktion ist imho wichtig und richtig. wem die gtx580 im furmark zu langsam ist, der soll sich ne schnellere karte kaufen.
Zuletzt bearbeitet:
FooFighter
Captain
- Registriert
- Juni 2003
- Beiträge
- 3.164
Lübke schrieb:...wäre es euch wirklich lieber, eure grafikkarte brennt durch statt vor ihrem leistungslimit zu limitieren? ...eine schutzfunktion ist imho wichtig und richtig..
Hallo Lübke,
Nein, natürlich sollte keine Grafikkarte durchbrennen. Eine Schutzfunktion dürfen die Hersteller auch gerne implementieren, dagegen ist grundsätzlich nichts einzuwenden (man nehme das Beispiel der heutigen CPUs).
Was ich jedoch nicht richtig finde, ist das bewusste throteln unter gewissen (unangenehmen) Anwendungsscenarien.
nVidia geht mit den neuen Karten ja sogar noch einen Schritt weiter. Wenn ich die letzten Diskussionen richtig mitverfolgt habe, throteln die neuen Karten noch bevor der Fan auf 100% gehen kann.
Sowas mag ich einfach nicht gut finden.
Lübke
Fleet Admiral
- Registriert
- Aug. 2007
- Beiträge
- 21.162
vergiss nicht, die karten wurden mit der schutzfunktion getestet. wenn man davon ausgeht, dass die zu früh greift, dann hätten die karten noch verborgene reserven, aber langsamer als in den tests sind sie ja nu nicht.
ich kann mich nicht an schwerwiegende probleme bei der hd4800 erinnern, von daher erwarte ich auch keine bei der gtx580
ich kann mich nicht an schwerwiegende probleme bei der hd4800 erinnern, von daher erwarte ich auch keine bei der gtx580
Es weis doch keiner genau wie schnell de HD 6970 denn wirklich sein wird. Auch wenn sie nur 1536 Shader haben sollte, muss das ja nicht heißen, dass sie deswegen weniger Leistung bietet. Man kann ja nicht nur mehr Shader verbauen, sondern auch größere. Die GeForce Karten haben ja auch "nur" 512 Shader oder 336 Shader, je nach Modell eben, sind deswegen aber auch nicht langsamer. Also macht alleine die Anzahl ja nicht alles aus. AMD hat ja schon oft gezeigt, dass sie in der Lage sind alle über die wahre Leistung Ihrer Karten zu täuschen. Vielleicht hat man ja gezielt hier und da Falschinformationen an die Presse durchsickern lassen. Es steht jeden Falls fest, dass noch nichts über Specs und Leistung der Cayman-GPUs bestätigt wurde. Es gibt natürlich Gerüchte, aber die müssen nicht falsch oder richtig sein. Am Ende zählt was bei den Benchmarks herauskommt.
FooFighter
Captain
- Registriert
- Juni 2003
- Beiträge
- 3.164
Lübke schrieb:...wenn man davon ausgeht, dass die zu früh greift, dann hätten die karten noch verborgene reserven, aber langsamer als in den tests sind sie ja nu nicht.
ich kann mich nicht an schwerwiegende probleme bei der hd4800 erinnern,...
Mahlzeit Lübke,
wie gesagt, ich mag hier niemandem eine nVidia madig machen. Bei solch einem Thema kann man ja auch die unterschiedlichsten Ansichten ausdiskutieren.
Meine Meinung ist, d. in den nVideas sogar ein gewaltiges Potential ruht. Beim gegenwärtigen Design sieht man einmal mehr, d. die Karten nicht auf den "Gamer" ausgelegt sind. Wenn man sich die Verbrauchswerte und Temperaturen so anschaut, wird relativ schnell klar, d. die Karten nur bis zu einem gewissen Punkt ausgereizt werden. Die Karten schöpfen im Spielebetrieb die Architektur niemals völlig aus. Die "Leistungsexplosion" im ungedrosselten Furmark / OCCT /Cuda - Betrieb zeigen das ganz eindeutig.
Die AMD Karten verhalten sich zwar relativ ähnlich, bruzzeln unter Furmark und dem anderen synthetischen Kram auch noch mal zusätzlich was weg, der Sprung ist jedoch nicht so Krass.
So. Nun dann mal ein Gedankengang von mir, der auch völlig daneben sein kann. Was ist, wenn die Spieleentwickler in Zukunft auf die Architekturen optimieren. Was ist, wenn ein Spieleentwickler auf die Idee kommt, die ungenutzten Potentiale der nVidia und AMD Chips zu nutzen?
Was ist, wenn die Spieleentwickler in Zukunft auf die Architekturen optimieren. Was ist, wenn ein Spieleentwickler auf die Idee kommt, die ungenutzten Potentiale der nVidia und AMD Chips zu nutzen?
a) der Spieleentwickler wird sich wohl fragen, in welche Richtung soll ich optimieren, wenn es unterschiedliche, schon nicht auf dem PC kompatible Systeme gibt AMD / nVidia
b) die Spieleentwicklung geht außerdem in Richtung Konsole und fast alles was rauskommt muß mit dieser Schnarchtechnik laufen, also auch keine auf PC-Hardware abgestimmte Software
Allein schon deshalb wird es extrem leistungshungrige und auf den PC optimierte Games nur in ganz seltenen Fällen geben!
- Registriert
- Aug. 2010
- Beiträge
- 40.096
Motkachler schrieb:Highend sollte aber auch nicht gedrosselt werden müssen so wie die 580 mit ihrem limiter damit sie nicht abraucht.
Kasmopaya schrieb:Es ist ganz einfach CPUs fackeln auch nicht ab wenn man Prime/Coredamage verwendet, das gleiche kann man wohl auch von GPUs erwarten. Genau so ist es. Die Ganze Sache einfach auf 100% Last auslegen und Qualität abliefern. Die Handbremse der GTX 580 schmeckt mir auch nicht...
FooFighter schrieb:Was ich jedoch nicht richtig finde, ist das bewusste throteln unter gewissen (unangenehmen) Anwendungsscenarien.
nVidia geht mit den neuen Karten ja sogar noch einen Schritt weiter. Wenn ich die letzten Diskussionen richtig mitverfolgt habe, throteln die neuen Karten noch bevor der Fan auf 100% gehen kann.
Sowas mag ich einfach nicht gut finden.
*w0rd*
Dann bin ich hier doch nicht der einzige, dem die Kastrierungen der Grafikkarte gegen den Strich gehen.
Der Lüfter geht einfach nicht weiter als 85%. Mit dem Trick, die Furmark-Sperre umzugehen, kriege ich die Karte in die Knie. Sie geht bis 97°C hoch und throttelt. Ohne die Lüfterkastrierung würde der meiner Schätzung nach auf 90% Drehzahl gehen und die Temperatur um 90 Grad halten. Meine ehemalige 470 hat sich in Furmark ähnlich präsentiert, ohne zu throtteln - 92°C bei maximal 87% Lüfterdrehzahl.
F
frankpr
Gast
Sorry fürs OT, gehört ja eher in den GTX 580 Thread, aber:
Richtig ist, daß das Limit durch den Treiber gesteuert wird. Steht übrigens auch so im Testbericht, da muß man nicht erst mit "ich vermute" anfangen.
Richtig ist aber auch, steht im Übrigen ebenfalls im Testbericht, daß dieses Limit ausschließlich in Tools wie Furmark und OCCT, das ja die gleichen Routinen nutzt, greift. In Spielen erreicht die Karte dieses Limit schlicht und einfach nicht.
Aus dieser Sicht kann ich auch Bangers Gefasel von einer angeblich "beschnittenen/kastrierten Hardware" nicht nachvollziehen. Und Banger, spielst Du 24/7 Furmark? Dafür brauchst Du dann tatsächlich keine GTX 580, da wäre eine solche Karte beim falschen User verbaut.
Und 2 starke GPu hersteller braucht es schon für den markt. Aus meiner Sicht eher nicht wegen der Preise, die halte ich derzeit für die jeweilig gebotene Leistung für angemessen, sondern um die Weiterentwicklung voranzutreiben. Denn in einem sind wir uns wohl einig: irgendwann wollen wir in Spielen photorealistische Grafik haben.
Wieso sollte sie das? Typisches Beispiel von nicht informiert, aber groß Mutmaßungen aufstellen.FooFighter schrieb:Die TDP-Limitierung wird vermutlich einigen in den Hochsommer-Monaten das Spielvergnügen trüben
Richtig ist, daß das Limit durch den Treiber gesteuert wird. Steht übrigens auch so im Testbericht, da muß man nicht erst mit "ich vermute" anfangen.
Richtig ist aber auch, steht im Übrigen ebenfalls im Testbericht, daß dieses Limit ausschließlich in Tools wie Furmark und OCCT, das ja die gleichen Routinen nutzt, greift. In Spielen erreicht die Karte dieses Limit schlicht und einfach nicht.
Aus dieser Sicht kann ich auch Bangers Gefasel von einer angeblich "beschnittenen/kastrierten Hardware" nicht nachvollziehen. Und Banger, spielst Du 24/7 Furmark? Dafür brauchst Du dann tatsächlich keine GTX 580, da wäre eine solche Karte beim falschen User verbaut.
Schwer vorstellbar, da eine parallele Entwicklung für 2 GPUs enermen Mehraufwand an Zeit und Geld bedeutet. Entwickelt man nicht parallel, verprellt man immer die User einer Marke, potentielle Kunden. Also wird es hochoptimierte Spiele kaum geben.FooFighter schrieb:Was ist, wenn die Spieleentwickler in Zukunft auf die Architekturen optimieren. Was ist, wenn ein Spieleentwickler auf die Idee kommt, die ungenutzten Potentiale der nVidia und AMD Chips zu nutzen?
Und 2 starke GPu hersteller braucht es schon für den markt. Aus meiner Sicht eher nicht wegen der Preise, die halte ich derzeit für die jeweilig gebotene Leistung für angemessen, sondern um die Weiterentwicklung voranzutreiben. Denn in einem sind wir uns wohl einig: irgendwann wollen wir in Spielen photorealistische Grafik haben.
Zuletzt bearbeitet:
Ähnliche Themen
- Antworten
- 8
- Aufrufe
- 1.728