News AMDs neue Radeon HD 6900 setzen auf „4D-Shader“

Eins wundert mich doch etwas. Angenommen, die 69er kommen wirklich nicht unter 2GB - dann werden sie zwangsläufig deutlich teurer ausfallen als die 58er. Soweit so gut...

...nun sollten doch aber die 68er eine Lücke füllen. Ich sehe irgendwie eine neue Lücke am Horizont auftauchen, und zwar zwischen 200 und 400 Euro. Und in Sachen P/L hätte dieser Sprung sicher auch seine Tücken.

Entweder ist also diese Folie Mumpitz, oder es kommt in Kürze eine 6930 auf uns zu, die sich preislich zwischen der 6870 und der 6950 plaziert.
 
Zuletzt bearbeitet:
Lösungsvorschlag:

Cayman Pro = 320*4 mit 1GB für etwa 269 Euro
Cayman XT = 400*4 mit 1GB für etwa 339 Euro
Cayman XT = 400*4 mit 2GB für etwa 379 Euro
Cayman XTX = 480*4 mit 2GB für etwa 439 Euro

Thema durch, so machen wir's. Wer ruft mal eben bei AMD an und klärt das?
(und irgendwer muß diesem Huang 'ne Packung Valium schicken)
 
Warten wir doch mal ab, ob wir im November die Duellanten GT580 und HD6970 sehen werden - schön wäre es. Dann wird sich zeigen, welche der beiden Boliden die theoretische DP Rechenleistung auf die Straße bringt. Mein Favorit heißt nVidia - denn mit AMD Karten konnte man bislang wissenschaftlich wenig anfangen.
Insgesamt dürfte der Preis auch noch von Interesse sein. Die bisherige Hochpreisphase war Dank diverser Lieferprobleme der Fertiger nicht sehr geldbeutelfreundlich. Hoffe, daß wird sich bald ändern.
 
Zuletzt bearbeitet:
Eisenfaust schrieb:
Mein Favorit heißt nVidia - denn mit AMD Karten konnte man bislang wissenschaftlich wenig anfangen.

Und das interessiert welchen Gamer? Richtig, keinen und deswegen ists auch gut, dass AMD diesen Mupiz draußen lässt. Sollen sie doch in die FirePro/Quadros so viel DP, C++ Kompatibiltät und L2 Cache reinbauen wie sie wollen, ich als Gamer will nur eins: fps. Und da bringt mir oben genanntes leider garnix. Außer einen leereren Geldbeutel und ne wärmere Bude. ;)
 
jajaja auf einmal ist es wenig strom, obwohl sie jetzt praktisch gleich viel strom frisst wie di 480! oder sogar noch mehr!
 
Hach, immer wieder belustigend hier zu lesen! Zum Einen ist es ein Gerücht und zum Anderen, ist es doch völlig egal ob sie nun 50 oder 150W mehr als die 68xx (unter Last!) verbrauchen werden. Wenn dieser Mehrverbrauch auch noch effizienter ist (davon gehe ich aus, denn alles andere wäre Schwachsinn...und 300W werden die nimmer nehmen!) als alles davor, dann sollten sich doch alle Gamer freuen!
Ich entschuldige mich jetzt schon für den Auto-Vergleich, aber für mich spricht nix dagegen nen 3L-Lupo 80% der Strecke auf der rechten Fahrbahn zu bewegen und dann wenn ich es mal kurzzeitig will den Veyron transformen zu lassen! ;)
...wer sich das nicht leisten kann, der sollte dann zu nem Hybriden wechseln, der "wahrscheinlich" in allem gut ist. :)
 
Felixxz21 schrieb:
Meine Güte, könnt ihr eig alle nicht lesen? :rolleyes:
"Die schlechte Bildquali der HD6800"....die Bildquali ist die selbe, sogar noch einen Tick besser als bei der HD5K.
Den Eindruck hatte ich ja auch.

https://www.computerbase.de/forum/threads/kernaussage-des-berichtes-ueber-die-radeon-68x0.808228/

Leider wurde der Poll geschlossen, auf meine Anfrage, ob man ihn nicht wieder öffnen kann, wurde garnicht reagiert, wäre ja auch so hart für Wolfgang, wenn er rausfinden müsste, dass ein erheblicher Teil seiner Leser seine Texte garnicht erst versteht.
 
NotNick schrieb:
...nun sollten doch aber die 68er eine Lücke füllen. Ich sehe irgendwie eine neue Lücke am Horizont auftauchen, und zwar zwischen 200 und 400 Euro. Und in Sachen P/L hätte dieser Sprung sicher auch seine Tücken.

*Spekulationsmodus an*
zwischen 200 und 400 Euro wird mal die Nachfolgekarte der 5850, die 6950 kommen ich schätze so um 300 Euro und ja nachdem wie die 6970 einschlägt um 400 Euro und aufwärts.
Die GTX480 wird unter 300 Euro rutschen müssen weil sie mit der 6950 konkurriert.
Die 6970 wird schneller als die GTX580 sein (die es nur auf dem Papier gibt) und somit der Preis anfangs jenseits der 400 Euro liegt.
Nvidia wird zaubern müssen und bringt die GTX580 Vaporchill mit 1GHz :D:D:D

*Spekulationsmodus aus*
 
Die GTX 480 für unter 300.- eur bezweifle ich, den die günstige Point of View 480 kostet aktuell noch ca. 365.-eur. Und ganz ehrlich die Verarbeitung ist mies, kein zubehör und mich wundert das überhaupt eine verpackung rum war. Bei unter 300.- ist denke ich nichts mehr verdient. Und die GTX 580 wird das selbe Problem haben ganz davon abgesehen das Verbrauch und Lautstärke wieder nicht passen werden.Ausserdem ist Nvidia viel zu spät dran wenn sie voraussichtlich erst im zweiten Quartal 2011 in ausreichender menge liefern können,hat AMD das Weihnachtsgeschäft schon in der tasche.
 
225 / 300 watt ? hat amd nun auch noch den (zensiert) offen?

kinder, ich dachte über das: "schneller durch mehr verbrauch" wären wir nun endgültig hinweg. man hat ja gesehen wie gut das bei nv funktioniert hat.

ich kauf mir bald ne spielesammlung. wenn das so weitergeht.
 
Partybu3 schrieb:
225 / 300 watt ? hat amd nun auch noch den (zensiert) offen?

kinder, ich dachte über das: "schneller durch mehr verbrauch" wären wir nun endgültig hinweg. man hat ja gesehen wie gut das bei nv funktioniert hat.

ich kauf mir bald ne spielesammlung. wenn das so weitergeht.

-Es kommt immer noch drauf an was eine Karte leistet, wäre die GTX 480 50% Schneller als eine HD 5870 hätte bestimmt auch keiner gemeckert.
-Möchte man das nicht, dann muss man halt im unteren Preissegment greifen, ist doch nichts neues.
 
IchmagToast schrieb:
Mal sehen, wie sich die Tendenz zwischen GTX 580 und HD 6970 verhält.
Unter 300W bei der HD 6970 ist ja auch nicht wenig. Wenn Nvidia da jetzt nachlegt, könnte die GTX 580 punkten, wenn der Verbrauch unter der HD 6970 liegt.

der sogenannte gf110 ist ja nix weiteres als eine weitere revision des gf100, quasi ein weiteres stepping zur fehlerbehebung. er kommt mit mehr takt daher und hat keine teildeaktivierung, was ihn in summe 10 bis 15% schneller macht als den gf100. wenn nvidia die massiven leckströme reduzieren kann, könnte der chip acuh weniger gebrauchen. letzteres ist ja das problem, warum ich generell nix vom gf100 halte. das ding ist nicht marktreif und wenn man sich die spezifikationen des gtx580 anschaut, dann ist das exakt das, was vor über einem jahr als gtx480 angekündigt wurde. insofern wird nvidia sicherlich punkten, was das vergleichen mit ihrer hundsmiserablem fermi1-generation betrifft. obs gegen amd reicht, wird sich zeigen. hier wurde im großen und ganzen über die letzten jahre hinweg systematsich und gut gearbeitet.
 
Ihr wisst schon das die Leistungsaufnahme sich anscheinend auf die PCI Express Anschlüsse bezieht:
2x 6pins= 225W
1x 6Pin + 1x 8pin= 300W
weil diese Mappe überhaupt nicht für uns bestimmt ist kann man daraus nicht die reale Leistungsaufnahme werten sondern es wird den Boardpartner vermittelt wieviele Anschlüsse sie brauchen, es könnte sein das die HD6970 230W unter Furmark zieht (wofür man den 1x 6Pin + 1x 8pin braucht) aber in Spielen unter 200W bleibt...
 
Partybu3 schrieb:
225 / 300 watt ? hat amd nun auch noch den (zensiert) offen?

kinder, ich dachte über das: "schneller durch mehr verbrauch" wären wir nun endgültig hinweg. man hat ja gesehen wie gut das bei nv funktioniert hat.

ich kauf mir bald ne spielesammlung. wenn das so weitergeht.

Und woher sollen sie die Mehrleistung bei gleicher Strukturbreite ziehen? Aus dem (zensiert)?
 
Toxicity schrieb:
@Cey123: wovon träumst du nachts?
Die GTX 480 verbraucht knapp 300W

Und du bist also ein begeisterer Furmark Spieler? :freak:
Denn in Spielen kommt sie auf 200W-250W.

@Topic:
War eh klar das sobald AMD auf ein ähnliches Niveau kommen will wie Nvidia auch der Verbrauch steigt.

Felixxz21 schrieb:
Und das interessiert welchen Gamer? Richtig, keinen und deswegen ists auch gut, dass AMD diesen Mupiz draußen lässt. Sollen sie doch in die FirePro/Quadros so viel DP, C++ Kompatibiltät und L2 Cache reinbauen wie sie wollen, ich als Gamer will nur eins: fps. Und da bringt mir oben genanntes leider garnix. Außer einen leereren Geldbeutel und ne wärmere Bude. ;)

Na dann bist du ja bei AMD genau richtig!
Für mich als anspruchsvollen Gamer sind die FPS nur wichtig sobald es ruckelt, alles darüber wird in Bildquali investiert. Diese ganze Balkenmentalität führt noch dazu das die Spiele am PC bald wie auf Konsole aussehen. Auch wenn ich Konsolen liebe und alle besitzte will ich trotzdem das der PC sich abgrenzt. Denn so hat man für jedes Genre/Art von Spiel seine präferierte Plattform.
 
Zuletzt bearbeitet:
terraconz schrieb:
War eh klar das sobald AMD auf ein ähnliches Niveau kommen will wie Nvidia auch der Verbrauch steigt.

-Das wird sich ja erst zeigen. Die HD 5970 ist immer noch die schnellste Grafikkarte momentan auf d. Markt, nicht die GTX 480, -und verbraucht trotz 2 Gpu´s weniger als eine GTX 480 unter Last. -Das sind erstmal die Fakten, ähnliches Niveau hätte AMD erreichen können indem sie Ihre HD 5870 OC hätten.
 
terraconz schrieb:
Und du bist also ein begeisterer Furmark Spieler? :freak:
Denn in Spielen kommt sie auf 200W-250W.

Anschlüsse kann man schlecht auf Durchschnittsbelastung auslegen, sondern man muss sie auf Maximalbelastung auslegen, und die ist bei der 480er nunmal 300 Watt (6 pin + 8 pin Anschluss), auch wenn Nvidia nur 250 Watt in der Spezifikation angibt.
 
Kasmopaya schrieb:
Und wieder stimmen die Hersteller mit mir überein, 2GB sind Standard bei der HD 6970...
Alles andere wäre ein Vram Krüppel 1. Klasse geworden. Das dürfte die Vram Diskussion ja wohl endgültig klären...
Und ein ist sicher, zum Spaß verbauen die nicht teuren hoch gezüchteten GDDR5 mit der doppelten Datendichte. AMD weis genau warum die HD 6970 2GB braucht, bei dem Speichermanagement auch wirklich nötig.



Wenn man davon ausgeht das die neue Architektur effizienter wird wie die HD 5 und die Karte zimlich viel Strom frisst, dürfte die Karte extrem schnell werden. Hammer was für ein Brocken, da muss sich eine GTX 580 ganz schön ins Zeug legen, bei 1,5GB Vram teilweise(Vram Settings) gar nicht möglich diese Karte hier zu schlagen.

du weißt schon das AMD karten nen besseres Speichermanagement haben als die nVidia karten?
 
aplus_el_diablo schrieb:
jajaja auf einmal ist es wenig strom, obwohl sie jetzt praktisch gleich viel strom frisst wie di 480! oder sogar noch mehr!

Selbst wenn sie gleich viel Strom verbraucht, ist sie immer noch effizienter, da sie ganz einfach mehr Leistungs bringt. Man muss den Leistungszuwachs in Relation zu dem Stromzuwachs setzen, um rationale Ergebnisse zu erhalten.


MFG Matze
 
Zurück
Oben