News AMDs neue Radeon HD 6900 setzen auf „4D-Shader“

Letztendlich spielt die Leistungsaufnahme doch nur für zwei Dinge eine Rolle:
1. das erforderliche Netzteil und
2. der Kühler, damit es kein Staubsauger ist und man beim Zocken nicht nur 'was sehen, sondern auch hören kann ^^

Und wer am Wochenende mal 20h zockt und 100W mehr Strom verbraucht (aufgerundete ~Differenz nvidia/AMD), hat dann um 40 Euro-Cent höhere Stromkosten... im idle geben sich die Karten ja nicht sooo viel. Das wären dann ungefähr 20 € im Jahr und dafür sieht es beim Spielen gut aus:
solange der Kühler entsprechend gut ist, ist mir die Leistungsaunahme (fast) egal.
(oder lässt iwer seinen Rechner 24/7 auf Furmark und Prime95 gleichzeitig laufen?!?)

Und das NT ist in den meisten PCs stark überdimensioniert und wird evtl. zu 50% ausgelastet, da ist normalerweise auch noch mächtig Luft nach oben...

Also abwarten und die Karte mit dem persönlich besten Preis/Bildquali-Verhältnis kaufen.
 
mal abwarten was dann noch als nächstes in der neuen 4D-Shader Technik kommt.
GPU-Leistungsaufnahme von >200 bis 300W ist für einen normalen Durchschnittsuser eindeutig zuviel. In 28 oder 32nm und mit etwas weniger Takt und weniger Recheneinheiten ausgestattet, würde ich mir eher so eine Karte um die 100W TDP wünschen.
 
@HITCHER_I
:rolleyes: Wie oft denn noch? Die Folie sagt rein gar nichts über den Verbrauch aus, sondern für wieviel das PCB / die Platine ausgelegt ist. Sprich mehr als 300 / 225W können die Platinen nicht zur Verfügung stellen, darin enthalten sind Worst Case Szenarien wie eben Verwendung von FurMark die absolute utopische und unrealistische Verbrauchswerte erzeugen. Und die Auslegung der Stromversorgung hat erst rechts nichts mit der TDP zu tun.
Und eine Karte mit 100W TDP.... ja, viel Spaß beim Warten.
 
Ob überhaupt 4D zum Einsatz kommen wird, ist ebenfalls ungewiss.
Das hat man der HD6870 oder war es noch die HD6770 auch nach geschrieben und mit Folien untermauert. Kam aber nicht so.

Und nun soll Cayman, 2-4 Wochen später in 4D kommen ?
Warum nicht auch Barts in 4D ??
Ich glaube, das Cayman auch in 5D kommt mit 1920 Shadern und eben mit einen deutlich größeren Chip und Verbrauch.
 
ich werde jez mal nicht alle namentlich zitieren, die mir geantwortet oder eine pn geschrieben haben, um mir zu zeigen wie super super gut sich die kleinen mädchen doch auskennen.

meine güte.

fortschritt ist es dann und nur dann, wenn man durch die selbe eingangsleitung oder besser noch weniger, mehr ausgangsleistung erzielt als vorher und nicht wenn man durch die steigerung des inputs den output erhöht.

nimmt man die formel eins als bsp. so ist die leistung der fahrzeuge über die letzten jahre immer wieder reduziert worden, die rundenzeiten sind jedoch immer weiter gesunken. das ist fortschritt in der entwicklung, und nicht mehr rein mehr raus.

ich sage ja nicht das die karten nicht besser werden im bezug auf ihre ökonomie, jedoch das karten 200 watt ~ 300 watt verbrauchen bzw. können, ist eine phänomen das man wohl erst später als unsinnig erkennen wird, nachdem man mal der software auf die sprünge geholfen hat, damit sie auch mal die leistung ausnutzt die vorhanden ist. in dem bereich bräuchte es innovationen, vorrangig dem feld der hw.

schaut man sich die cpu ecke an, so ist es dort gelungen von 2 auf 4 auf 6 kerne zu wechseln, bei selbem bzw. niedrigerem verbrauch durch bessere technik. aber was sage ich, es wäre natürlich besser jetzt schon 16 kern cpus zu haben die eine tdp von 300 watt auszeichnet, das wäre dann ja auch fortschrittlich.
 
Zuletzt bearbeitet:
aplus_el_diablo schrieb:
jajaja auf einmal ist es wenig strom, obwohl sie jetzt praktisch gleich viel strom frisst wie di 480! oder sogar noch mehr!

Partybu3 schrieb:
225 / 300 watt ? hat amd nun auch noch den (zensiert) offen?

kinder, ich dachte über das: "schneller durch mehr verbrauch" wären wir nun endgültig hinweg. man hat ja gesehen wie gut das bei nv funktioniert hat.

ich kauf mir bald ne spielesammlung. wenn das so weitergeht.

Toxicity schrieb:
Ihr wisst schon das die Leistungsaufnahme sich anscheinend auf die PCI Express Anschlüsse bezieht:
2x 6pins= 225W
1x 6Pin + 1x 8pin= 300W
weil diese Mappe überhaupt nicht für uns bestimmt ist kann man daraus nicht die reale Leistungsaufnahme werten sondern es wird den Boardpartner vermittelt wieviele Anschlüsse sie brauchen, es könnte sein das die HD6970 230W unter Furmark zieht (wofür man den 1x 6Pin + 1x 8pin braucht) aber in Spielen unter 200W bleibt...

Wow, mal einer ders kapiert. Diese Diskussion geht aufm Sack, da steht eindeutig "max. Boardpower". Nix Verbrauch, das bezieht sich eindeutig wie schon gesagt auf die 2 x 6pins bzw 1x 6pin und 1x 8pin.
Ausserdem ist es total unlogisch, sone Schiene fährt nur Nvidia (mehr Leistung durch mehr Verbrauch).

Vergleicht mal beide Bilder bitte. Ka ob die nachfolgende Erläuterung für euch logisch ist, für mich ja, dass AMD dieses niveaulose gepushe der Grafikkarten nich nötig hat.
19-1080.2731006921.jpg

1-1080.1551929013.jpg


Wenn man sich überlegt, dass die 6900er Reihe 2x mehr Geometrieleistung gegenüber dem Vörgänger hat (5850/5870 = 6850/6870), würde dies bedeuten, dass die Geometrieleistung aus 2 "Barts" Karten genau diese doppelte Leistung zustande kommen würde. Waghalsig formuliert würde ich dann mal glatt behaupten, dass AMD keine neue Serie auf den Markt bringen müsste, zumal sich die angebliche Verlustleistung zu dem summieren würde, was hier so gehypet wird.

Kurzum: In euren Augen ist die 6900er Reihe nichts anderes als 2 6800er im Crossfire ^^ (die sogar schon verfügbar sind)
 
Zuletzt bearbeitet:
also ich hoffe die "unter 225/300w" sind nur die spezifikationen für die leistung die erbracht werden kann... nicht die tdp^^ sonst wirds doch ne gtx580..
da ich ja auch glaube das eine hd5850 mit einem pcie stecker auskommen würde hoffe ich das die 6970 auch normal locker mit 2 6pin steckern auskommen würde.
 
Partybu3 schrieb:
schaut man sich die cpu ecke an, so ist es dort gelungen von 2 auf 4 auf 6 kerne zu wechseln, bei selbem bzw. niedrigerem verbrauch durch bessere technik. aber was sage ich, es wäre natürlich besser jetzt schon 16 kern cpus zu haben die eine tdp von 300 watt auszeichnet, das wäre dann ja auch fortschrittlich.
Dir ist aber bewusst, dass GPUs massivst Leistungsfähiger sind als CPUs?

Und deine Aussage ist einfach nicht richtig. Fortschritt ist eine Steigerung der Effiziens. Aber wir sprechen hier von High-End Grafikkarten, wenn man zu der Steigerung der Effiziens bessere Kühlkonzepte entwickelt, die mehr Wärme abführen kann, und somit die Leistung noch mal steigern kann, dann ist das auch Fortschritt.

Ob man eine derart performante Grafikkarte braucht, soll dann jeder selber entscheiden, aber zu behaupten die Grenzen des Machbarens anzuheben sei nur Fortschritt, wenn man das mit weniger Ressourcen schafft, ist einfach eine Einschränkung, die vielleicht deine persönliche Meinung wiederspiegelt, aber keine Allgemeingültigkeit besitzt.
 
Wie oft denn noch :rolleyes:
Max. Board Power heißt weder Max. Usage noch max. TDP.
Es steht einfach für die Stromversorgung und deren maximale Leistung.
 
Wenn ich hier die Folie von der 6870 sehe, dann kann die Folie der 6970 garnicht stimmen. Denn dann hätte der Cayman genauso viele ROPs UND Stencil/Z Einheiten wie Barts, bei vermutlich 1,5-2x Restleistung.
Einen solchen Krüppel entwickelt AMD nicht. Die Karte würde mit AA nicht viel schneller als ne 6870 sein und die mehr Shader/TMUs würden einfach verpuffen.
 
Zumal AMD vor dem 6850/6870-Launch einen speziellen Humor an den Tag gelegt hat:

Laut Folie

6850 < 150 Watt
6870 > 150 Watt

Hineinspekuliert wurde dann "Faiiiiil miiiindeeestens 225 Watt" für die 6870 :freak:.

Heraus kamen dann 151 Watt für die 6870 :D:D:D
 
Tja wenn man weiß wie Effiezient die eigenen Karten sind, dann kann man sich sowas leisten. Ge nVidia :D
 
du weißt schon das AMD karten nen besseres Speichermanagement haben als die nVidia karten?
Bis zur HD 4 hatte sie es, ab der HD 5 sind sie sogar schlechter als GF 200. GF 100 hat ein stark überarbeitetes Speichermanagement bekommen, fast schon perfekt. Zur Zeit ist das AMD Speichermanagement weit abgeschlagen guggst du hier: https://www.computerbase.de/2010-10/amd-radeon-hd-6870-und-hd-6850-test/18/#abschnitt_metro_2033
und hier für zig Beispiele: https://www.computerbase.de/forum/threads/sammelthread-grafikkarten-mit-mehr-als-1gb-vram.562654/


-Es kommt immer noch drauf an was eine Karte leistet, wäre die GTX 480 50% Schneller als eine HD 5870 hätte bestimmt auch keiner gemeckert.
Richtig, erst recht wenn man den Verbrauch durch einen simplen Kühlerwechsel den man sowieso wegen der Lautstärke braucht um 80Watt senken kann auf Hd 5870 Niveau. Hätte ich das zu Thermi Start gewusst, hätte ich mir sofort eine geholt. Die Effizienz ist ja fast auf dem selben Niveau!


solange der Kühler entsprechend gut ist, ist mir die Leistungsaunahme (fast) egal.
Wie gesagt umso besser die Kühlung, umso extremer sinkt bei NV die Leistungsaufnahme -> win/win


Und eine Karte mit 100W TDP.... ja, viel Spaß beim Warten.
HD 5750 green unter 75Watt max. extreme Performance per Watt, kauft doch eure Mittelklasse, die immer noch Kreise um jede CPU zieht. Aber solange die Oberklasse genauso effizient, vielleicht sogar effizienter durch eine neue Architektur arbeitet kann eigentlich gar keiner meckern.


Ob überhaupt 4D zum Einsatz kommen wird, ist ebenfalls ungewiss.
Diese News hier kannst du quasi als Bestätigung der Folie werten. CB bringt solche News entweder mit ? dann sind es Gerüchte oder fast schon als Fakt wie diese hier. Die dürfen das NDA nicht brechen, aber indirekt haben sie in der News einige Sachen bestätigt.
schaut man sich die cpu ecke an, so ist es dort gelungen von 2 auf 4 auf 6 kerne zu wechseln, bei selbem bzw. niedrigerem verbrauch durch bessere technik.
Also wie beim 6Kerner bei Intel, neuste Strukturbreite, kleinere Fertigung in 32nm, trotzdem höherer Stromverbrauch, bzw. höchster Verbrauch ever, und mehr Idle Stromverbrauch. Man kann den Fortschritt der CPU fast schon erkennen, halt nein das ist ja Rückschritt... :rolleyes:
 
Mal abwarten und Benches checken..
 
Kasmopaya schrieb:
AMD weis genau warum die HD 6970 2GB braucht, bei dem Speichermanagement auch wirklich nötig.

Könntest du mal ausnahmsweise auch mal Quellen nennen? :rolleyes:


Kartenlehrling schrieb:
Die gtx480 koste immer noch ca. 380€ und die HD 5870 Eyefinity 6 Edition, 2048MB GDDR5 ca. 400€
Also wird die HD6970 bestimmt mit 450€-500€ starten, was anders wär verramschen.

Nein, denn sie setzen dadurch Nvidia massiv unter Druck und schlecht kommt es bei den meisten Leuten wohl nicht an, weil auch Nvidia dann den Preis senken muss.
Ich rechne mit max 400€ für ne 6970.


mace1978 schrieb:
Leider wurde der Poll geschlossen, auf meine Anfrage, ob man ihn nicht wieder öffnen kann, wurde garnicht reagiert, wäre ja auch so hart für Wolfgang, wenn er rausfinden müsste, dass ein erheblicher Teil seiner Leser seine Texte garnicht erst versteht.

Völlig normal hier, ist eben ne kleine Diktatur...
 
schön cb^^ jetzt wäre eine Filterfunktion für die kommentare schön, da ich in jedem zweiten Kommentar vom AF/Flimmerproblem lesen muss was hier völlig Offtopic ist.

Also mir ist flimmertechnisch noch nicht so viel aufgefallen aber warscheinlich gehöre ich auch nicht in das Spektrum der Leute für die diese Tests gerichtet sind. Wie nennt man diese denn? Visiophile statt audiophile? -_-
Man kanns auch übertreiben was diese Flimmergeschichte angeht.

Jetzt zum eigentlich Thema:
Ich bin mal gespannt darauf, wenn es wirklich so kommt, wie die Karten in Arma2 abschneiden. Arma2 lief auf den bisherigen Karten mit 5D-Shadern sehr gut (die konnten in Arma2 wohl gut ausgelastet werden).
Ich habe die Befürchtung das Arma2 darunter leiden wird, dass nur 4D-Shader statt 5D verbaut werden (auch wenn diese in den meisten anderen Spielen warscheinlich besser ausgelastet werden können)...
Hoffe aber das ich mit meiner Vermutung falsch liege bzw. mich irre....

Mfg,
Seb89
 
HeiderKiller schrieb:
Kann mir jemand in seinen eigenen Worten erklären was '4D' bedeutet.
3D ist mir klar, aber 4D?

HK

Die Verwendung von "4D" oder "5D" ist eh falsch.
Wie schon hier gesagt, sind aktuell 5 SPs (X, Y, Z, W und die fette T) zu einem Threadprocessor gruppiert. Diese 5 SPs können für einen Thread bis zu fünf unabhängige Instructions ausführen. "5D" bedeutet aber, dass nur eine Instruction für fünf Komponenten ausgeführt wird, darum ist 1+1+1+1+1 oder VLIW5 richtig und nicht "5D".
 
Also mir ist flimmertechnisch noch nicht so viel aufgefallen aber warscheinlich gehöre ich auch nicht in das Spektrum der Leute für die diese Tests gerichtet sind.

Vorallem die echten ATI Fans wollen ja nur eins: Preis/Leistung um jeden Preis, das wissen wir spätestens seit der HD 4, die noch schlechteres AF hatte, schlechtes PCB in form der zu heißen Spannungswandler, massive Überschreitung der TDP, extrem verschwenderischer Idle Mode. Dh. die Diskussion um das schlechtere AF bei der HD 6800 betrifft eigentlich die echten ATI Fans sowieso nicht! Die sind noch viel schlechteres gewöhnt und haben sich da vorher auch nicht beschwert. Es sind ja nur die NV User die auch mal ohne Nachteile auf eine AMD Karte umsteigen wollen. Aber im Preis Leistungssegment darf man von einer AMD Karte einfach nicht mehr erwarten, ist ja eh schon ein ausgewachsenes Wunder das man endlich sowas wie einen HQ-Mode bekommen hat und den auch manuell einstellen kann.

Beim Cayman schaut die Sache aber anders aus, der ist nicht an die typischen ATI Fans gerichtet sondern allgemein an Enthusiasten die eigentlich recht hohe Ansprüche haben. Von dem her darf man hier schon über das AF streiten. Für eine gewisse Summe darf man einfach gute Qualität erwarten...
Könntest du mal ausnahmsweise auch mal Quellen nennen?
Welche? Für die 2GB bei der HD 6970, für das schlechte Speichermagement, oder das AMD auch endlich kapiert hat das man nicht unbedingt extrem teure Vram Krüppel verkaufen sollte?

Eine Sache ist ja sowieso interessant, mit der HD 6970 2GB gibt AMD quasi zu das die HD 5970 2x1GB schon immer zu wenig Vram hatte. Die 2 Karten müssten ungefähr die gleiche Rohleistung haben, krasser Zug wen man bedenkt das sie die 1GB Karten noch verkaufen wollen bzw. müssen bis die Antilles HD 6990 2x2GB(erst die 2. dualKarte nach der 4870 X2 die überhaupt ausreichend Vram dabei hat) aufschlägt.
 
Zuletzt bearbeitet:
Zurück
Oben