News Radeon HD 6970 ab 15. Dezember für 450 US-Dollar?

Smartin schrieb:
Ich sage mir aber auch, wenn ich Leistung will, dann kann ich die nicht mit 100 W erreichen. Das ist das gleiche, als kauft man sich einen Ferrari und regt sich über den Spritverbrauch auf. :rolleyes:

Das Argument lasse ich (mit meinem beschränkten Wissen über die Materie) heute fast nicht mehr gelten. Schaue Dir die Intel-CPUs an - was verbrauchen die für eine klasse Leistung? Je nach CPU 30-70W (Mainstream)? Schade, dass es bei den Grafikkarten länger dauert. AMD macht es im Idle schon ganz gut, Nvidia hat sich auch gesteigert, aber bei Last sollte es spätestens beim nächsten Fertigungsprozess weniger werden. Klar steigt die Leistung mit jeder Generation auch an, aber das tut es bei den CPUs auch.
 
@rolandm1: ok, das ist was anderes. ;) aber deshalb sind 400,- € für die karte nicht gleich negativ zu sehen. sie würde wohl nicht so viel kosten, wenn sie nicht entsprechend stark gegen die konkurrenz ist, dass leute bereit sind entsprechend viel dafür zu zahlen. immerhin will amd ja auch noch karten verkaufen ;)

ich hoffe auf einen spannendes kopf-an-kopf-rennen der beiden :)

@Daniel D.:
Klar steigt die Leistung mit jeder Generation auch an, aber das tut es bei den CPUs auch.
naja sich von leistungsschwachen stromfressern wie netburst zu verbessern, ist auch kein kunststück ;) das ist etwas äpfel mit birnen vergleichen. seit den ersten c2d hat sich außer dem fertigungsprozess kaum was verändert, bei grafikkarten sind dx10, dx11, open cl, cuda, physx, eyefinity, stereo 3d, etc. pp. dazugekommen.
 
Zuletzt bearbeitet:
MC BigMac schrieb:
Das sind gesalzene Preise. Dann muss das Komplette Konzept stimmen. Die Leistung und auch die verdammte Kühlung. Nicht das man wieder diese grässlichen Radiallüfter präsentiert werden. Die hatte ich schon zweimal. Bei der 8800GT war es ein Föhn, das gleiche gilt auch für eine HD5850 im ersten Referenzdesign. Man das Ding drehte auf das war nicht sehr schön. So ein Winzling soll die Karte leise kühlen? Im Idle schon aber nicht unter Last. Aber wir warten mal ab was sich ergibt. Pünktlich zum Weinachsgeschäft haben wir neue Karten aus beiden Lagern. Ich für meinen Teil verzichte auf Solchen Karten. Mehr als eine HD5770 brauch ich bisher nicht und das wird auch so bleiben.



Als erstes. Eine HD 5850 ist selbst unter Last kaum hörbar (ich spreche nur von Spielen)27% drehzahl max. (ich besitze eine) Wenn du deinen Tower nicht richtig belüften kannst, ist das nicht schuld der Karte. Zweitens finde ich die Standardlüfter der AMD's klasse, weil sie die warme Luft nach außen bringt. Und als letztes, wenn du nicht mehr Leistung brauchst, ist das toll für dich. Aber ich komme nicht weit mit der Leistungsklasse (HD 5770) mit einem 27 Zoll TFT.
Zu dem ca. Preis der HD 6970 (400 - 450,-€). Wenn sie in der nähe der GTX580 ist, geht der Preis voll in Ortnung. Ich hoffe nur, das es viele der neuen gibt, sonst steigen die Preise für die neuen. Na ja Warten wir es ab :evillol:
Ergänzung ()

Daniel D. schrieb:
Das Argument lasse ich (mit meinem beschränkten Wissen über die Materie) heute fast nicht mehr gelten. Schaue Dir die Intel-CPUs an - was verbrauchen die für eine klasse Leistung? Je nach CPU 30-70W (Mainstream)? Schade, dass es bei den Grafikkarten länger dauert. AMD macht es im Idle schon ganz gut, Nvidia hat sich auch gesteigert, aber bei Last sollte es spätestens beim nächsten Fertigungsprozess weniger werden. Klar steigt die Leistung mit jeder Generation auch an, aber das tut es bei den CPUs auch.



Also das Argument lasse ich nicht gelten. Wenn du schon so einen, verzeih mit, dummen Vergleich machst, so nenne mir bitte mal den reinen Stromverbrauch der GPU ohne den ganzen rest der Platine, oder mist du bei dem CPU Stromverbrauch auch das ganze Mainboard mit. :rolleyes: Wohl eher nicht oder. Außerdem wird es wehniger Verbrauch bei Last. Heute erreicht eine GPU bei gleichem Stromverbrauch das doppelte an FPS. Ergo ist es ein rückgang des Stromverbrauches oder. :lol:
Also immer locker bleiben.
 
Naja, etwas mehr hat sich bei den CPUs schon verändert (AES, mehr Kerne, HT, neue SSE-Versionen, massive interne Änderungen). Dann könnte ich auch sagen, sich von Stromfressern wie HD2000 oder 8800GTX zu verbessern: Kein Kunststück! ;)

Ist aber auch egal, ich erwarte jede Generation mit Spannung und hoffe, dass irgendwann auch bei Grafikkarten das Maximum bei 120/150 Watt liegt. Das trifft für die 69xx nicht zu, aber vielleicht Mitte /Ende nächsten Jahres.

@kuer
Locker bin ich anscheinend mehr als Du. ;) Klar sind die Karten effizienter bei gleichem Verbrauch, aber ich möchte gerne weniger Verbrauch bei mehr oder gleicher Leistung. Was hilft es mir, wenn ich 150 statt 75 fps sehe? Mir hilft es nicht viel. Aber darüber kann man ja streiten...
 
Zuletzt bearbeitet:
Daniel D. schrieb:
Das Argument lasse ich (mit meinem beschränkten Wissen über die Materie) heute fast nicht mehr gelten. Schaue Dir die Intel-CPUs an - was verbrauchen die für eine klasse Leistung? Je nach CPU 30-70W (Mainstream)? Schade, dass es bei den Grafikkarten länger dauert. AMD macht es im Idle schon ganz gut, Nvidia hat sich auch gesteigert, aber bei Last sollte es spätestens beim nächsten Fertigungsprozess weniger werden. Klar steigt die Leistung mit jeder Generation auch an, aber das tut es bei den CPUs auch.

Du kannst nicht CPUs mit Grafikchips vergleichen. Das sind Äpfel und Birnen. GPUs sind viel aufwändiger. Obendrein das eine nur ein Chip, das andere eine komplette Karte.
Grundsätzlich ist es auch weniger geworden. Schau Dir einfach an, was vorhergehende Karten verbraucht haben. Die Leistungszuwächse sind bei Grafikchips auch deutlich größer als bei CPUs.

Eine Mainstreamkarte verbraucht deutlich weniger Strom. Also ist es erst recht verfälschend, Mainstream CPUs mit Highend GPUs zu vergleichen. Obendrein sind CPUs mittlerweile auch schon teilweise im Bereich von Baugröße 32nm angekommen. GPUs haben noch 40. Allein deshalb verbrauchen sie schon mehr.

Nur mal so als Anhaltspunkt: ein Intel i7 Quad
hat gerade mal 731 mio Transistoren bei ner Fläche von 263 mm².

Ne Ati 870 2,1 Mrd bei 334 mm²
und ne NV sogar 3 Mrd bei 529 mm²
also ist es nicht wirklich verwunderlich, dass die NV mehr Strom braucht, oder?
 
Zuletzt bearbeitet:
hahaha bitte keiner die news auf fudzilla ernst nehmen ^^


Sie haben die werte auf quelle eines schon im B3D Forum beweisen fakes geschrieben

hier der angebliche slide:
http://i56.tinypic.com/15mz711.png

hier der fake hinweis (man sieht halt deutlich über den balken das was "übermalt" wurde):
http://i52.tinypic.com/9hqsci.jpg

und wenn ich jezze mal die news lest und sie mit der fake grafik vergleicht ?? na ? was fällt auf xD

ich sag ja fudzilla is so lächerlich ;)
 
Zuletzt bearbeitet:
Meine Spekulation:

6970 liegt mal 5-15% vor der GTX 580, mal dahinter
ebenso die
6950 als Konkurrent zur 570.
Die Effizienz wird bei AMD besser sein.

Ich erwarte keine AMD Karte die nV ernsthaft bedrohlich gegenübersteht. Gute Konkurrenz zu einem leicht günstigeren Preis.
Mehr wird es (wieder) nicht sein.
Alle Jahre wieder.
 
Jepp, dass eine Moderne High-Ende GPU mehr Power hat - und deswegen auch braucht - als eine CPU sollte mittlerweile klar sein. Die Grafikchips sind im Verhältnis riesig, und haben auch wesentlich mehr Rechenleistung.

mfg
 
Würde gerne mal wissen ob die CB Redaktion schon eine 6970 vorliegen hat.

Verstößt das gegen die NDA wenn ihr sagt ob ihr ein Exemplar vorliegen habt oder nicht?
 
Daniel D. schrieb:
Das Argument lasse ich (mit meinem beschränkten Wissen über die Materie) heute fast nicht mehr gelten. Schaue Dir die Intel-CPUs an - was verbrauchen die für eine klasse Leistung? Je nach CPU 30-70W (Mainstream)? Schade, dass es bei den Grafikkarten länger dauert. AMD macht es im Idle schon ganz gut, Nvidia hat sich auch gesteigert, aber bei Last sollte es spätestens beim nächsten Fertigungsprozess weniger werden. Klar steigt die Leistung mit jeder Generation auch an, aber das tut es bei den CPUs auch.

Da hast du Recht, mit deinem Wissen. ;) (ohne Beleidigung)

Denn etwas hast du übersehen.

Die aktuelle CPUs haben so um die 800 Millionen Transistoren. Die GTX580, z.B. besitzt über 3000 Millionen Transistoren, also 3 Mal mehr. Das heisst, sie brauchen auch 3x mehr Strom:

CPU ca. 50 Watt, GPU ca 150 Watt. Dazu kommt, dass auf die Grafikkarte auch RAM eingebaut ist, Kondensatoren, Stromversorgung, usw. und das alles braucht auch Strom. :D

Deshalb nie Birnen mit Äpfel vergleichen. :p
 
@Daniel D.:
Dann könnte ich auch sagen, sich von Stromfressern wie HD2000 oder 8800GTX zu verbessern: Kein Kunststück!
vollkommen richtig. und genau das ist auch passiert ;)
dann vergleiche doch mal leistung/watt und verbrauch idle zwischen 2900xt und 6870 :D
dagegen sieht die verbesserung pentium 4 zu core i7 schon fast wieder lächerlich aus ;)
nee ganz im ernst: die entwicklung bei gpus ist durchaus gegeben und muss sich auch vor der entwicklung bei den cpus nicht verstecken. zumal wir bei pentium 4 zu core i7 sogar eine deutlich größere zeitspanne betrachten...

Ist aber auch egal, ich erwarte jede Generation mit Spannung und hoffe, dass irgendwann auch bei Grafikkarten das Maximum bei 120/150 Watt liegt.

da werd ich dich enttäuschen müssen. bei den highend-modellen der grafikkarten wird die leistungsaufnahme wohl auch zukünftig steigen, um immer das maximum aus einer architektur zu quetschen. allerdings entwickelt sich die leistung bei grafikkarten auch deutlich schneller.

vergleiche mal das leistungsplus zwischen pentium 4 und core i7 mit dem zwischen radeon 9700pro und gf5800 ultra mit dem von gtx580 und hd6970 (und da sind die multi-gpu-karten nichtmal mit drin)
 
Zuletzt bearbeitet:
john carmack schrieb:
Würde gerne mal wissen ob die CB Redaktion schon eine 6970 vorliegen hat.
Verstößt das gegen die NDA wenn ihr sagt ob ihr ein Exemplar vorliegen habt oder nicht?
Du kannst davon ausgehen, dass sie schon eine haben. Ich tue es zumindest ;) Ob schon ein Testsample vorhanden ist unterlag noch immer der NDA. Das siehst du auch bei allen anderen Reviewseiten, die verdächtig still sind. Nur diese eine Seite in Frankreich hat sich verplaudert. Das ist aber sehr riskant und könnte ernste Konsequenzen haben.
 
DvP schrieb:
Du kannst davon ausgehen, dass sie schon eine haben. Ich tue es zumindest ;) Ob schon ein Testsample vorhanden ist unterlag noch immer der NDA. Das siehst du auch bei allen anderen Reviewseiten, die verdächtig still sind. Nur diese eine Seite in Frankreich hat sich verplaudert. Das ist aber sehr riskant und könnte ernste Konsequenzen haben.


Bedeutet das, das CB auch nicht sagen darf ob es am 15.12 einen Test geben wird?
 
Daniel D. schrieb:
Schaue Dir die Intel-CPUs an - was verbrauchen die für eine klasse Leistung? Je nach CPU 30-70W (Mainstream)? Schade, dass es bei den Grafikkarten länger dauert.

Nur so nebenbei, ein Intel Core i7 Prozessor verfügt über Rund 731 Mio Transistoren, ein RV 870 (Cypress) verfügt über 2 154 Mio Transistoren, mit der Anzahl an Verbrauchern ist eine TDP von 30 - 70 Watt mehr Wunsch als irgend was anderes. ;)
 
Aha... Diese NDA ist aber ganz schööön streng... :(

Die paar Tage noch :D *freu*
 
wenn ich schon ne Hiighend-Grafikkarte kaufe, dann sollte sie auch Highend-Grafik bieten und nicht mit sonem minderwertigem Filter daherkommen. Deswegen würde ich eh sagen das die Modelle von ati ein fail sind.
 
Die HD6950 wird die beste AMD-Karte in meinen Augen... und die Folie die ende Oktober von AMD veröffentlich wurde geht bestimmt in Erfüllung.

Kartenlehrling schrieb:
Ich finde immer noch das die Folie von Oktober am meinsten Aussagt gibt wie die HD69xx werden.

Die HD6990 wird 5-10% schneller sein als die gtx580
Die HD6970 wird sich zwischen der gtx480 und gtx580 befinden
Die HD6950 wird leicht unter der gtx480 und wohl auf dem level der gtx570 sein.

gtx580tabele-jpg.208176
 
Dann frage ich mich aber warum die 6970 um 4 Wochen verschoben wurde. Vielleicht will ja AMD einfach die schnellere Karte herzaubern und hat die Tage an Takt und BIOS gearbeitet...
 
Zurück
Oben