News Spezifikationen zur GeForce GTX 580 durchgesickert

Complication schrieb:
Fakten kann man nicht schlecht reden

Natürlich kann man das. Das ist gang und gäbe in der Politik.

Complication schrieb:
daher sollte man dann eben über Fakten berichten und für Klarheit sorgen anstatt FUD Strategien der Marketing-Abteilungen mit zu ermöglichen ;)

Ach bitte, du bist doch keine 12 mehr. Das ist (leider) alltäglich und normal, bei allen Firmen. Besser du gewöhnst dich daran. Die Welt ist nun mal krank :(
 
An alle die jetzt schreien, dass Stromverbrauch egal ist: Erstens ist er das nicht und zweitens bringt sie aber auch nicht die gewollte Leistung. 15-20% mehr? Ist für mich ein Armutszeignis, man will nur irgendwas gleichzeitig mit AMD rausbringen. Hat beim Fermi auch schon ganz gut gewirkt, wenn Leute wie CHIP von der Schnellsten Graka der Welt geredet haben.

Glaube trotzdem nicht, dass die Karte dem Cayman gefährlich wird. Effizienz bleibt bei AMD und von der Leistung scheint der Cayman ja auch sehr gut werden.
 
Also eine Variable der Daten wird nicht stimmen. Ich denke, dass es die "20%" weniger verbrauch als bei der GTX480 sind. Evt. ist gemeint, dass die GTX580 20% weniger verbraucht als ein alter GF100 im Vollausbau.

Aber für mich klingt das ein bisschen wie die perfekte High-End Karte. Schöne, schöne Traumwelt....

Ich glaube nicht, dass Nvidia genug Zeit hatte einige "Tesla" Funktionen, welche für den Spieler uninteressant sind, zu streichen und durch u.a. mehr Textureinheiten zu ersetzen. Einzig der 40nm Prozess könnte besser im Griff sein...

Hach... ich liebe diese Gerüchte. Gehört irgendwie dazu :D
 
Zuletzt bearbeitet:
benoetigt schrieb:
Ach bitte, du bist doch keine 12 mehr. Das ist (leider) alltäglich und normal, bei allen Firmen. Besser du gewöhnst dich daran. Die Welt ist nun mal krank :(
Also zum erwachsen werden gehört auch Verantwortung zu übernehmen - dazu gehört auch Missstände nicht zu akzeptieren sondern anzusprechen. Aber du kannst natürlich gerne die Welt so akzeptieren wie sie andere gestalten, resignieren und in deren Welt leben. Nicht gerade sehr erwachsen, wenn du mich fragst.
 
Falls es Nividia schaffen sollte in der kurzen Zeit 20% mehr Leistung bei 20 % weniger Verbrauch zu leisten (was ich nicht glaube) dann dicken Respekt von meiner Seite.

Warum hält nur AMD mit ihrem Cayman so hinterm Berg. Macht mir fast den Eindruck als wäre Nvidia etwas hysterisch und AMD ziemlich cool. Evtl. sind sie selbst von ihrem Produkt sehr überzeugt oder wissen etwas über Nvidias Konkurrenz was wir nicht wissen.
 
KönigvonLorion schrieb:
772 Mhz hört sich schwer an nach: Wir haben alles rausgeholt was ging ...

;)


Klar, ich würde es Nvidia wünschen. Doch selbst so klingt es unrealistisch:
20% mehr Power als GF100 mit 480 SP und 20% geringerer Stromverbrauch als GF100 mit 512 SP.
 
Gibt bestimmt dann 10 Stück in ganz Europa zu kaufen :D

Man will wohl AMD das Weihnachtsgeschäft etwas madig machen. Wird aber nicht viel bringen :)


@ Evtl. sind sie selbst von ihrem Produkt sehr überzeugt oder wissen etwas über Nvidias Konkurrenz was wir nicht wissen.
-> Wahrscheinlich besteht die Grafikkarte wieder nur aus Holz oder es gibt nur 10 (Eng. samples) weltweit zu kaufen ;)
 
es ist doch immer so, dass der der derzeit besser Fährt, keine Informationen heraus gibt.
Denn man will ja nicht das die Leute mit dem Kaufen Warten, dass ist Tödlich fürs Geschäft.

Nvidia Hingegen muss alle vom Kauf eines AMD Abhalten.
Also müssen sie die Käufer erstmal Heiß machen, damit diese nicht vorschnell AMD Kaufen.
 
Scheiß auf Stromverbrauch...das Teil muss rocken! ;) Wobei sich der Wechsel von 480 auf 580 wohl kaum lohnen dürfte. Ein Refresh tut der gebeutelten, aber dennoch absolut zuverlässigen 480 sicherlich gut.
 
Zuletzt bearbeitet von einem Moderator:
Abwarten und Tee trinken.

Hier kocht die Gerüchteküche. Und warum sie Wasser erst bei 120 °C zum kochen bringt, bleibt mir verschlossen.

Wenn neue Grafikkarten zu erwarten sind, dann werden die alten schnell billiger. Das ist die einzig
neue "alte" aber auch positive Erkenntnis.

Da CB ja auch nur mit Wasser kocht, sind die techn. Details wohl eher aus der Luft gegriffen und von
unglaublich "seriösen" Quellen wiedergegeben. Solchen Quatsch liest man gerne immer wieder........
 
Ich würde sagen 30 - 40W mehr verbrauch gegenüber der GTX 480 wird das Teil schon haben. Klar mehr Performance, aber wenn ich mir ansehe wie ein 6850 CF über eine GTX 480 hinwegfegt und dabei weniger braucht sehe ich schwarz für Nvidia.

@knoedelfan

An Gerüchten ist auch immer ein Funken Wahrheit dran und mehr als ein Refresh bekommt Nvidia in der kurzen nicht hin.
Ich erinnere nur daran was alles als Quatsch abgestempelt wurde was im Vorfeld über die GTX 480 verbreitet wurde und am Ende hat erschreckend viel gestimmt.
 
Zuletzt bearbeitet:
KönigvonLorion schrieb:
772 Mhz hört sich schwer an nach: Wir haben alles rausgeholt was ging ...
net ganz, meine GTX480 schaffe ich auch locker mit 800 MHZ.
Ich denke aber das dies nur so ein zwischending wird..... eigendlich wollten die doch ne neue GTX 480 mit 512 rausbringen oder? da war doch mal was..... naja 580 hört sich scheinbar besser an. Der verbrauch wird deutlich höher sein, (nicht nur 30~50 Watt) das kann man doch auch an der GTX480 sehen wenn man die auf 770-1500-2000 MHZ einstellt.
 
wenn se das ganze unnütze Zeug des GF100 weg gelassen haben, dann sind 20% weniger Stromverbrauch vermutlich kein Problem
 
Ralf T schrieb:
Klar mehr Performance, aber wenn ich mir ansehe wie ein 6850 CF über eine GTX 480 hinwegfegt...

Aber mit allen Treiberkonsequenzen die AMD so mitsich bringt, das wären mir die paar Prozentchen nicht wert, zumal akutell alles in FullHD ohne Anstrengungen zockbar ist. Und wir alle wissen, dass CF und SLI totaler Müll ist.
 
Da können die Nvidia Grakas noch so nen hohen Stromverbrauch haben, das intressiert mich doch nicht ob die jetzt 100W oder 300W verbrauchen. Und ob die jetzt zu Warm werden oder nicht ist doch auch wayne, solange die funktionieren. Alleine wegen den Treibern würde ich nur Nvida Grakas kaufen. Ich verstehs echt nicht wie sich hier manche wegen dem Stromverbrauch aufregen. Wahrscheinlich nen fetten geleasten Audi in der Garage stehen haben aber über den Stromverbrauch jammern -.-

mfg Jojo
 
Also die gleichen Spekulationen wie zur HD6800 noch vor zwei Monaten...

Ach ja, "wir holen alles aus dem Chip raus, was geht" hat AMD mit der HD6870 ja auch gemacht. Die hat kein bisschen Raum nach oben mehr.

Und mit Strukturoptimierungen ist viel möglich, GF100 auf GF104 hat schonmal die Richtung vorgegeben.

mfg
 
Zuletzt bearbeitet:
Super da kauf ich doch gleich 2 - dann geht wenigstens beim Nachbarn das Licht aus. Den mag ich sowiso nicht.
Vielleicht gibts sogar ein bischen globale Erderwärmung und die Insel säuft ab... hihi
 
Klatty schrieb:
Halten die bei AMD so dicht oder wollen die keine Gerüchte(streuen) über ihre Ware?

Ich denke das Nvidia mit ihrer informationsstreuung da besser fährt.
Das muss man differenzieren.

AMD ist momentan sehr gut aufgestellt und nicht wirklich unter zugzwang.
Sie handeln nach dem Motto "When it is done".

Nvidia dagegen muss versuchen möglichst viel Käufer vom Kauf der HD 6k Reihe abzuhalten, genauso wie bei der 5k Reihe. (Wo es bis zum Release ja eigentlich auch gut geklappt hat...)

PS:
Ich finde AMDs Technik besser, denn da stimmen wenigstens die Releasedaten.... :rolleyes:

Aber ich muss sagen, dass ich nicht gedacht hätte, dass so viele schonwieder an die Releasegerüchte im November glauben...

MEDIC-on-DUTY schrieb:
Aber mit allen Treiberkonsequenzen die AMD so mitsich bringt,
Die weltbesten Treiber können gegen die 30cm vorm Bildschirm nichts ausrichten ;)

@Thread:
Ah zu lustig.
Nvidia und AMD Fanboys gemischt mit einer kleinen Prise "mehr-Ram"-Junkies :D
 
Zuletzt bearbeitet:
Bis eben dachte ich ja, die GTX 580 ist ein zeitlich perfekt plazierter MarketingGag von Nvidia.

Wenn diese Werte stimmen sollten, ist das kein Gag. Aber lustig muss es dann trotzdem bei Nvidia zugehen. Ohne Massen an Alkohol bei den Ingenieuren und dem Marketing waere sowas wohl nicht moeglich.

Und falls das wirklich dann noch ein Paperlaunch wird ..... :freak:
 
Zurück
Oben