News AMDs neue Radeon HD 6900 setzen auf „4D-Shader“

GTX 480 braucht 320 Watt unter 100% Last und das Netzteil muss dementsprechend drauf ausgelegt werden...

Bei der vorher angesprochenen Calibre sind es sogar unglaubliche 239Watt im Furmark. Also wieder ca. 80Watt weniger nur durch die Temperatur. Da ist noch nichtmal ein undervolting dabei... Thermi quasi ent-floppt durch massiven Einsatz von Kühlung, die Effizienz reicht ja sogar an die HD 5870 ran. Wobei man fairerweise auch einer HD 5870 so eine Monsterkühlung verpassen müsste.

nd jetzt zieh mal von den High-Quality Werten der 6870 noch 3-5% ab
Ich bin mal ganz gemein und schwinge die Wunder-Treiber-Keule, die Treiber machen alles besser und die HD 6 wird schneller über die Zeit. :evillol:

Aber hast schon Recht der Name passt überhaupt nicht zu der Karte. 6870 ist definitiv ein ungünstige Wahl.
 
Die 6970 das ende der speicherkrüppel !!
Kasos Gebete wurden erhört :D
also ich glaub da wird bei nvidia bei der 580er zaubern müssen um die zu schlagen .
 
Aber hast schon Recht der Name passt überhaupt nicht zu der Karte. 6870 ist definitiv ein ungünstige Wahl.
Ich denke mal die Namensgebung hatte einen gewissen Sinn bei AMDs Marketing Abteilung, anstatt sich auf die Vorgängerkarten zu konzentrieren hat man sich auf die erhältlichen Spiele konzentriert, die HD5XXX Serie ist schon ein Jahr raus, an den Leistungsanforderungen der Spiele hat sich seitdem aber garnichts getan (bis auf wenige Ausnahmen), die HD X7XX reihe ist hier die Reihe die alle Spiele bei FullHD mit vollen Qualitätssetting nur ohne AA/AF spielen kann.
Die HDX8XX Serie kann eben die meisten Spiele mit AA/AF spielen, und ihr Energieverbrauch ist weiterhin Moderat.
Die HDX9XX ist dagegen für die Freaks, die HD5970 war es schon, die HD6950/70/90 wird es genauso sein, derartig hohe Leistung braucht bisher kein Spiel, ohne auf die Leistungsaufnahme zu achten...
Man muss bedenken das gegeben falls (sicher bin ich mir aber nicht, aber die bessere Effizienz lässt es auch vermuten) die Karten doppelt so leistungsfähig sind wie die HD6850/70, und das ist enorm...
 
Kasos Gebete wurden erhört
It's about time:D, musste so lange dafür kämpfen, erst die gute Nachricht bei Fermi 1,5GB und 1,3GB und nun eine üppig ausgestattete Enthusiast Karte von AMD die ausnahmsweise mal nicht die Kunden verarscht die hunderte von € hinblättern und ihre Grafikkarte auch mal ein paar Jahre behalten wollen, ohne gleich in ein Vram Limit zu rennen. Vorteil liegt auf der Hand, die Karte hier dürfte ein paar € günstiger werden als wenn es nur eine handvoll extra 2GB Vram Versionen gegeben hätte. Noch dazu muss ich nicht Monate warten bis die ersten 2GB Modelle aufschlagen. Doppel und dreifach win!:daumen: Jetzt muss sich eine GTX 580 beeilen oder ich hab schon im Dezember eine neue Grafikkarte. Zum Paperlaunch gibt es hoffentlich Benchmarks und Effizienzwerte einer GTX 580 sonst könnte NV viel zu spät dran sein. Die 500MB mehr Vram bei der AMD Karte sind für mich als Vram Fan ein gewichtiges Argument, wobei es effektiv nur ca. 300MB sind, weil NV ein extrem gutes Speichermanagement hat und sich die HD 6 nur leicht verbessert hat auf dem Gebiet.

derartig hohe Leistung braucht bisher kein Spiel,
Ich sag da nur PC-only Titel, die fressen GPUs zum Frühstück. Sogar bei Blizzard und SC II sind 1GB Vram Karten am einbrechen mit 1900*1200 4xMSAA, von 8xMSAA reden wir noch gar nicht.
 
Zuletzt bearbeitet:
Die GTX 480 verbraucht in Spielen nur um die 230W, das hat die PCGH mal mit Strommessgeräten direkt an der Grafikkarte gemessen. Furmark ist wiegesagt kein Spiel und für den Strombedarf einer Grafikkarte auch nicht aussagekräftig, da einfach unrealistisch. (Du misst den Kraftstoffverbrauch eines Autos ja auch nicht bei nem Orkan als Gegenwind) Da könnt ihr drehen, was ihr wollt, aber sieht so aus, als würde die 6970 mindestens soviel Strom wie die GTX 480 fressen :D
Aber selbst wenn, macht doch nix. Wer sich so ne teure Graka kauft, der wird auch die Stromrechnung noch bezahlen wollen und hat einfach andere Prioritäten.
 
Kasmopaya schrieb:
Ich sag da nur PC-only Titel, die fressen GPUs zum Frühstück. Sogar bei Blizzard und SC II sind 1GB Vram Karten am einbrechen mit 1900*1200 4xMSAA, von 8xMSAA reden wir noch gar nicht.
SCII läuft selbst auf der ollen HD4670 meines Mitbewohners bei 1280x1024 flüssig.
Und die hat auch nur 512MB...
 
Ich finde es ein wenig merkwürdig dass sich so viele über die Leistungsaufnahne der 6970 beschweren. Wenn man bedenkt dass die 6970 ein reiner High-End Chip ist, wogegen die 5870 nur der Value Chip (RV) war. Da sollen 75 Watt mehr zu verschmerzen sein. Nichts desto trotz wird aber auch viel von der Leistung und der Kühlung bzw der Wärmeentwicklung abhängen. Ich denke dass die Karte nicht an die Heizleistung eines Fermi herankommt, dafür hat AMD auch viel zu sehr darauf rumgehackt als dass sie nun riskieren möchten genauso zu enden.
Mein persönlicher Favorit ist aber auch der kleinere Ableger, sprich die 6950. Da sollten P/L noch in einem guten Rahmen liegen, Verbrauch und Wärmeentwicklung sollten sich auch noch in Grenzen halten. Zum Stromsparen sind beide Karten aber sicherlich ungeeignet.

Die 6990 wird sicherlich nicht so "sparsam" sein wie die 5970, aber wenn die Leistung stimmt wird der Enthusiast dies sicher verschmerzen können.
Bleibt nur zu hoffen dass die GTX 580 ein guter Konkurrent sein wird. Auch wenn ich's NV gönne wenn sie Mist bauen, aber von einem Preiskampf profitiert natürlich der Kunde am meisten. Ansonsten heißt es sich mal wieder in Geduld üben.

PS: Rechtschreibfehler? Merwürdige Wörter? Den Post habe ich vom Handy verfasst, das Wörterbuch und die kleine Tastatur sind nichts für das halbwegs zügige schreiben.
 
Naja, die Leistung wird für mich wohl gerade so reichen, um mit ein Fitzelchen AA und AF zu spielen, wenn ich mir drei 24Zöller an die Karte hänge. Für 3D werd ich dann aber wohl zwei von Dingern als CF-Gespann benötigen. Wenn das mal genügen wird :rolleyes:
 
SCII läuft selbst auf der ollen HD4670 meines Mitbewohners bei 1280x1024 flüssig.
Und die hat auch nur 512MB...
Ja schon klar, Details runter drehen geht immer, aber wie lächerlich ist es denn sich eine zb. HD 6970 1GB für 300€ zu kaufen und dann die Details runter zu drehen, weil der Vram ausgeht. Raus geschmissenes Geld, nix anderes ist das.
Für 3D werd ich dann aber wohl zwei von Dingern als CF-Gespann benötigen. Wenn das mal genügen wird
Vorallem mehr Vram wenn du AA aufdrehen willst, 8000*6000 + 3D + MSAA und die 2GB laufen über... Da hilft dir ein CF auch nicht mehr.
 
Zuletzt bearbeitet:
@Cey123
Die Folie sagt nicht den Verbrauch der Karten aus, sondern wofür das PCB ausgelegt ist, "max. board power" heißt nicht maximaler Verbrauch.
Daher muss es sich erstmal zeigen ob die HD6970 soviel Strom frisst wie eine GTX480. Man muss dazu ja auch die Performance sehen.

Das ist jetzt komplett aus der Luft gegriffen und entspricht nicht den Gegebenheiten
Gehen wir von einem absout utpoischen Wert aus das eine HD6970 minimum 50% schneller ist bei 230W Verbrauch, meinetwegen max 300W Furmark (wofür das PCB ausgelegt ist) dann ist das top.
Klar wäre der Verbrauch dann hoch, die Performance aber nochmal deutlich schneller.
_____________________
Und ja, wenn man High End kauft dann bedeutet es das man viel verbraucht, aber ich sehe es auch so: Man muss nicht unnötigerweise mehr als nötig verbrauchen. Warum sollte man kein effizientes Design fahren, was zur Zeit AMD macht und nvidia mit der GTX460.
Daher kann ich mir nicht vorstellen das AMD den selben Fehler macht wie nvidia und einen relativ ineffizienten Chip rausbringt.
 
Eine Frage mal, womit rechtfertig Nvidia eine neue Serie ?

20% mehr Leistung und 20% weniger Stormverbrauch sind also eine neue Generation Grafikkarte gegeüber der 480er?

Wo bleibt hier die Rechtfertigung der Nvidia fanboys und der Flame der AMD Fanboys?

und wie immer sag ich dazu..... Erst das Fell des Bären verteilen wenn dieser erlegt ist !

Einfach die Tests abwarten.....

zum Flimmern; bei der 295er flimmert es wie hölle auf dem Level der 6870 wenn ich das Rastermircoskop nehme.

btw. die 69xx Serie ist ja nur eine Vorstufe von der neuen Architektur der 7000er Serie. Sollte die 69xx Serie gute Werte bringen, ist sicher ende 2011 mit der 700er Serie zu rechnen.


mfg
 
Kasmopaya schrieb:
Ja schon klar, Details runter drehen geht immer, aber wie lächerlich ist es denn sich eine zb. HD 6970 1GB für 300€ zu kaufen und dann die Details runter zu drehen, weil der Vram ausgeht. Raus geschmissenes Geld, nix anderes ist das.
Nein eben nicht, er spielt das Spiel auf vollen Details, das ist nicht gelogen oder so (naja wenn man bedenkt das SC2 auf meiner HD5770 mit ein bisschen AA läuft eig realistisch...

Du übertreibst manchmal mit deinen Vramwunsch, denn bisher kommen alle Spiele in normalen Auflösungen mit 1GB klar...
Bei extremsituationen wie Eyefinity braucht man sicher mehr, aber über 2GB wirds auch nicht rübergehen

Es sei denn du willst FPS Jenseits der 90er Marke...
 
btw. die 69xx Serie ist ja nur eine Vorstufe von der neuen Architektur der 7000er Serie
Die Shader komplett umzuwerfen qualifiziert die HD 6970 als neue Architektur, die HD 5(3. Refresh) war eine Vorstufe und ein Refresh. die HD 7(1. Refresh) wird mit Sicherheit ein Refresh der HD 6970, denke nicht das sich da großartig viel verändern wird. Das hat sich ja alles geändert. Cayman = Northern Islands, also bereits die vorher erwartete HD 7 Architektur. Doppelt verwirrend weil die HD 6800 der 4. Refresh des R600 ist mit gleichen Namen. Aber so wies ausschaut haben HD 6800 und HD 6970 nicht viel miteinander zu tun. Die Treiber müssen auch komplett umgeschrieben werden und auf 4D Shader ausgelegt werden. Ergo alles neu...(hoffentlich auch das AF)

Nein eben nicht, er spielt das Spiel auf vollen Details,
Spielen kann er schon, aber einbrechen auch. Flüssig = 30FPS(Konstant). Da braucht man gar nix mehr diskutieren Benchmarks als Beweise gibt es genug und hab selber 2x 512MB Karten hier, in den Sequenzen in denen 700MB+ gefordert wird gehts runter ins Bodenlose. Ultra Details in der Kampagne
 
Zuletzt bearbeitet:
Die Namensgebung ist zZ bei NV und AMD etwas interessant, wobei es für beide pro und contra Argumente gibt (allerdings halte ich die GTX 580 für unpassender als die 68xx, ist aber Meinungsabhängig). @Topic: Ich vermute mal dass die 6990 mit 2 8-Pin Anschlüssen daherkommt, die 375 Watt aber schon in der Referenz ziemlich ausgelastet sein dürften. Sollten OC Versionen angeboten werden, dürfte wohl noch ein weiterer 6-Pin Anschluss fällig werden. Bei Single-GPU Karten gehe ich von einem Verbrauch von etwa 260 Watt (6970), bzw. 220 Watt (6950) unter Volllast aus, aber das sind nur wilde Spekulationen meinerseits.
 
@Kasmopaya , ich hab nen 24" Monitor mit 1920x1080 , ich sprach vom allgemeinen ^^
Je nach wunsch kann ich auch den 2ten monitor noch mitbenutzen zum zocken aber da fehlt mir die lust zu bei den kack rändern^^

Und das man solche Leistungen nicht braucht is absouluter bullshit.
Selbst jetzt bringt ein Gut Programmiertes Game wie zb Crysis mit den richtigen Einstellungen Graka's zum schwitzen.
Guckt man sich allein mal an wie die Qualität durch immer höhere filter an leistung verschlingt oder was in zukunft für games rauskommen , sei es Crysis 2 , Two Worlds 2 oder vllt Metro 2034 , mehr leistung wird immer gebraucht und ich nehm se gern an^^

Allein wenn ich mir einschaue was der zwangsumstieg von 5870 zur 4890 an fps rutsch nach unten beschert hat zeigt mir wie sehr man Leistung braucht wenn man die richtigen settings wählt.
Ich für meinen teil freu mich sehr auf die 6970 und einen leistungsschub von über 100% ^^
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Aber es ist dir nicht egal wie effizient die Karte arbeitet, sonst bekommst du eine 2. GTX 480 mit AMD Logo die zwar viel Strom schluckt aber langsam arbeitet.

Geh komm, denk mal logisch drüber nach was die neue AMD aufn Tisch bringt.
Ineffizient arbeiten? Das ist wohl bei der 6970 nicht der Fall, bei der neuen Fermi weiss ich bei dem was bis jetzt bekannt ist jetzt schon dass sie nicht an die rankommt, leider.
 
meeee schrieb:
Mehr Recheneinheiten bedeuten auch nicht immer mehr Rechenleistung!
Theoretisch vielleicht schon aber mit steigender Anzahl der Recheneinheiten steigt auch der Verwaltungsaufwand.
Ich kann dir dazu nur sagen, das es in dem Bereich Cluster Computing nichts neues ist, das die nutzbare Rechenleistung mit steigender Anzahl von Kernen immer schwächer zunimmt.

@JimNastik
bei der steigenden Seitenanzahl hat doch sowieso keiner mehr Lust, alles zu lesen...


Doch, lächerliche 118 Posts, davon hab ich schon ca 30 früher gelesen... hat gerade mal 50 Minuten gedauert von Seite 2 bis Seite 5 ;)

Schliesslich erfährt man hier am meisten Gerüchte, im Bericht steht nicht wirklich viel drin. Aber hier schon... und jeder behauptet etwas anderes ^^

Wenn man nun ordentlich ausfiltert was geflame ist, und was völlig Haltlose theorie sind hat man schon einige Infos mehr ;)

Naja ich hoffe mal das sie nich so wie die HD6870 am 22. die NDA fallen lassen, sondern früher. Ich hätte schon gerne so eine HD6970, wenn sie zwischen 300 und 400 euro rumschwirrt, lieber unter 300 ;)
 
Naja ich hoffe mal das sie nich so wie die HD6870 am 22. die NDA fallen lassen, sondern früher. Ich hätte schon gerne so eine HD6970, wenn sie zwischen 300 und 400 euro rumschwirrt, lieber unter 300

Die gtx480 koste immer noch ca. 380€ und die HD 5870 Eyefinity 6 Edition, 2048MB GDDR5 ca. 400€
Also wird die HD6970 bestimmt mit 450€-500€ starten, was anders wär verramschen.
 
Zuletzt bearbeitet:
450-500€ würde meines erachtens nach überheblichkeit aussehen , die müssen weniger raufpacken für die gleiche leistung also sparen die bei der fertigung was , ich schätze die auf maximal 400€ mehr nich.
 
Zurück
Oben