News Weitere Gerüchte zur neuen Radeon-Grafikkartenserie

wie widersprüchlich die leistungsangaben sind zeigt doch schon der artikel an sich. ich werde mir sicherlich eine der neuen karten zulegen, aber mich beunruhigt die fehlende konkurrenz und die verfügbarkeit, die sich wohl im preis äußern wird. dann kann es wieder ein pokern werden, wie bei der 58er reihe. schnell zuschlagen, bevor die preise raufgehen, oder aber hoffen nvidia zieht schnell nach und ein preiskampf entsteht. wenn allerdings nvidia wirklich erst Q3/4 die 670/80er reihe bringt wird der preis der AMDs sicherlich konstant hoch bleiben.

mal sehen, was die dinger leisten und dann entscheiden :)
 
@FatFire

naja, beide Karten schenken sich kaum was, zumindest dem CB Test nach:

https://www.computerbase.de/2011-11...0-ti-448-core/11/#abschnitt_leistungsaufnahme

Die GTX 560 TI 448 saugt 10% mehr als de HD6950, ist aber auch 10-13% schneller (siehe Link oben).

Auf CB wäre sie also mimimal effizienter - die HD6950 1Gb schneidet schlechter ab.

Alles im Rahmen von Messungenauigeiten, dennoch hat es Nvidia geschafft den Fermi abzuspecken und mehr auf Effizienz zu trimmen.
 
Zuletzt bearbeitet:
Zuletzt bearbeitet von einem Moderator:
Natürlich kann man immer irgendwo ein paar Tests finden, die eben mehr eine bestimmte Seite bevorzugen. Wenn ich Pro-Intel/nVidia bin, sehe ich mich natürlich auf CB um. Und wenn ich pro AMD bin dann HT4U. Und irgendwo in der Mitte liegt die Wahrheit.
Was mich bei Typen wie KainerM immer aufregt ist die Rosinenpickerei. Er vergleicht die Effizienz der 560 ti auf der einen Seite und die Leistung der 580 auf der anderen Seite, obwohl das zwei komplett verschiedene Karten sind, und kommt dann zum Ergebnis, dass nVidia die besten Karten für jedermann baut, weil die 6970 langsamer als die 580 und weniger effizient als die 560 ist. Das ist einfach kompletter Schwachsinn.

Fakt ist, nVidia hat die Leistungskrone und baut im Referenzdesign schon verdammt gute Kühllösungen. Naja, und als Nice-To-Have gibt es dann noch Cuda und PhysX.
Und bei Preis-Leistung und Effizienz steht einfach AMD besser da.
Das sind klar belegte Fakten, die muss man doch mal akzeptieren können. Ich stelle mich doch auch nicht hin und lasse in einer Tour Sprüche ab wie "nVidia taugt nichts, die GTX 580 ist überhaupt nicht schneller als die 6970 und Cuda und PhysX brauch auf dieser Welt kein Mensch". Das wäre totaler Mumpitz.

Ja, KainerM liebt sein nVidia abgöttisch, ich weiß, aber wir haben es jetzt alle verstanden und jetzt muss man sich auch mal wieder normal und faktenbasiert unterhalten können.

Gruß FatFire

PS:
Krautmaster schrieb:
Auf CB wäre sie also mimimal effizienter - die HD6950 1Gb schneidet schlechter ab.

Alles im Rahmen von Messungenauigeiten
Die 11% Lastverbrauchunterschied zwischen der 1 und 2-GB-Version sind meines Erachtens nach keine Messungenauigkeit. Ja, ich weiß, Meinung zählt nicht. Fakt ist, dass dieses Verhalten der Karten in anderen Tests nicht nachgestellt wurde. Also entweder Mist gebaut beim Testen, extrem schlechtes und vielleicht sogar defektes Sample erhalten oder...tja, keine Ahnung, das kann sich jeder selbst ausmalen. Die Messung des Gesamtstromverbrauchs, da hat Swissjustme recht, ist totaler Schmarrn, wenn man nur wissen will, was die Grafikkarte verbraucht.
 
Zuletzt bearbeitet:
Ich gurke hier derzeit mit einer GTX 260 216 rum die ich mir als Übergang letztens gebraucht gekauft habe. Ich wollte halt die 28nm GPU abwarten. Eigentlich hätte ich mir gewünscht, dass die Preislagen der HD 6XXX für die HD 7XXX übernommen werden.

Die HD 6950 mit 2GB fangen derzeit bei rund 215€ an aufwärts. Also hätte ich mir eine HD 7950 mit 2GB für maximal 250€ gewünscht. Laut den Gerüchten wird die HD 7950 aber wohl definitiv die 300€-Marke überschreiten und damit finde ich diese Karte einfach zu Teuer.

Mehr als 200€ möchte ich eigentlich nicht ausgeben außer wie schon gesagt man bekommt für einen kleinen Aufpreis wesentlich mehr Leistung.

Die HD 7870 wird dann wohl auf dem Niveau der GTX 560 Ti 448 C (vielleicht hat man genau deswegen die GTX 560 Ti aufgebohrt) und für mein Budget zu haben sein. Nur da hätte ich mir den Kauf der Übergangsgrafikkarte auch sparen und direkt zur GTX 560 Ti greifen können.

Sollte AMD das tatsächlich so verwirklichen wäre der einzige Pluspunkt nur noch die TDP. Diese müsste dann natürlich erheblich niedriger ausfallen als bei der GTX 560 Ti 448 C.


Das dumme wird nur sein, wenn Nvidia mit seinen 28nm GPU kommt droht ein Preisverfall der HD 7000 da Nvidia diese wohl leicht übertrumpfen kann. Könnte dann gut sein, dass eine GTX 660 Ti die HD 7950 locker schlägt aber nur 250€ kostet. Der Wertverfall der HD 7950 wäre riesig und klar ärgert man sich wenn die neue Grafikkarte innerhalb weniger Monate mal eben 50% seines Wertes verliert.
 
ich wünsche mir nur eine 7870 welche weniger bis gleich viel strom verbraucht wie meine aktuelle 6870 und doch ein gutes stück schneller ist als meine 6870. dann bin ich zufrieden. aber bis zum neukauf werde ich wohl noch bis mitte 2012 warten, da ich der verfügbarkeit und preisentwicklung ned traue.
 
Lumi25 schrieb:
Könnte dann gut sein, dass eine GTX 660 Ti die HD 7950 locker schlägt aber nur 250€ kostet.
Wenn die 760 ti (6xx wird nur OEM-Krempel) die 7950 schlägt, wird diese auch teurer sein. nVidia hat nichts zu verschenken.

Gruß FatFire
 
Swissjustme schrieb:
Schwachsinn. Auf CB wird der Leistungsverbrauch des gesamten Rechners gemessen und nicht der Grafikkarte alleine. Da kannste du doch diese Werte nicht ins Verhältnis setzen ...
Eine GTX 448 verbraucht 40-45% mehr als ne HD 6950 (Quelle: Ht4u.net http://ht4u.net/reviews/2011/gigabyte_geforce_gtx_560_ti_448_test/index12.php )

Was heißt hier Schwachsinn... ich schreib extra dazu ausgehend von CB. Schön cool bleiben.

Der Rechner darunter bleibt derselbe, warum sollte er also unter GPU Last unterschiedlich viel brauchen abseits der GPU. Imho dürfte die schnellere GTX 560 IT die restlichen Komponenten minimal höher auslasten da höheres GPU Limit, also ist der Verbrauch der restlichen Komponenten unter Last bei der Nvidia minimal höher.

Trotzdem ist es dasselbe Testsystem.

Der Unterschied zu anderen Seiten wird daher kommen, dass diese tw Last anders verursachen, zB Furmark. Hier kann das Ergebnis gnadenlos abweichen.

Ich sehe das genauso, Fermi hat sich gemacht, die Kühllösungen bei Nvidia sind auch super und persönlich liegt mir der Treiber auch mehr, - vor allem aber unter Linux.

Dennoch ausgehend vom CB Test geht das Duell HD6950 vs TI448 in etwa unentschieden aus.


@HT4U.

Hier wird ein Gigabyte Modell getestet, das kann schon wieder ganz anders ausfallen, dazu muss nur die VID geringfügig höher sein. Deswegen weichen die Tests auch ab. Ich finde die kleineren Fermi Chips sind gut vergleichbar mit den Cayman Chips, relativ ähnlich (die AMD Chips sind aber effizienter bezogen auf mm²)
 
Zuletzt bearbeitet:
Krautmaster schrieb:
Überflüssiges Zitat entfernt *klick*


Du sprichst hier von Prozenten, von relativen Verbrauchswerten. Nur wird in dieser Messung der Verbrauch des Gesamtsystems gemessen und damit liegst du komplett daneben. Deswegen ist es völliger Schwachsinn. Da spielt es keine Rolle, ob nun die Messung bei CB oder bei ht4u.net vorgenommen wurde. Hier gehts um simple Mathematik.

Die GTX 560 TI 448 saugt 10% mehr als de HD6950, ist aber auch 10-13% schneller (siehe Link oben).
Hättest du die absoluten Werte geschrieben, wärs richtig gewesen.
 
Zuletzt bearbeitet von einem Moderator:
achso, joa das stimmt natürlich ;)

Dann kann man wohl festhalten, dass sie ich im CB Testsystem kaum was schenken.

Diff idle / Load lässt sich da schwer anwenden, CB sollte sich für den Aufbau 2012 auch nen PCIe + Netzteil Messadapter zulegen.

Edit:

seh grad, dass ich zudem auch die Werte der 560TI nicht 448 verglichen hatte. Das machts eher schlimmer statt besser - passt aber zu den HT4U Werten :D

Joa, dann ist es wohl nach wie vor so, dass AMD wie ich sagte mit ihrer heutigen Architektur weit effizienter ist (seit HD5XXX) - liegt an der guten 5D / 4D Bauweise, hohen Packagedichte und an der eventuellen BQ Optimierung im Treiber :D

umso schlimmer wenn man mit 28nm (Gerüchten zufolge) nur so wenig reißt. Die Nvidia Chips sind in Bezug auf Leistungsaufnahme und Chipgröße seit der Architektur viel eher am technischen Limit als die Chips aus dem Hause AMD. Deswegen verstehe ich nicht warum man keinen Chip bringt der ähnlich in die Vollen geht wie Nvidia es gehen muss. Die GTX580 wäre auch in 40nm "locker" zu nehmen.
 
Zuletzt bearbeitet:
Sicherlich nicht. Hahaha das wär ja was, Full-Node aber 20-30% mehr Leistung :freak:
Ich frag mich immer wieder, wer diese Leute sind, die solche Gerüchte ins Internet stellen. Was glauben die wer die Leser sind? Affen? :rolleyes:

Und was macht dann nVidia? 1024 Shader und auf einmal sind die Geforces nicht mehr 10% schneller sondern 50%. AAAAAAAAAAAAAAAlter manchmal frag ich mich echt wie man die Leute nur für so dumm halten kann.

Wahrscheinlich dachten sie die 7970 hätte 2048 VLIW4 Shader und habens dann hochgerechnet. Das is dann aber wohl voll in die Hose gegangen, denn GCN geistert nicht erst seit gestern rum und jedes Kind weiß mittlerweile dass VLIW mit so vielen Shadern nicht skaliert.

Also packt eure schlechten Gerüchte wieder weg, wartet bis Januar und holt euch dann eine 7970 die schneller als eine 6990 ist mit TDP von 200-250W. Denn das wirds wirklich werden.
 
Also Aufregung/Vorfreude kommt bei mir gerade nicht hoch. Irgendwie habe ich das Gefühl, dass AMD bei alten Serien, besonders im Leistungsbereich, mehr geleistet hat. Aber trotzdem scheint es sich um ein rundes Produkt zu handeln. Abwarten und Tee trinken.
 
Felixxz21 schrieb:
jedes Kind weiß mittlerweile dass VLIW mit so vielen Shadern nicht skaliert.

klär mich auf.

https://www.computerbase.de/2011-11...0-ti-448-core/4/#abschnitt_leistung_ohne_aaaf

Dreisatz:

HD6670
480 Shader - 800Mhz
65%

HD6770:
800 Shader - 850 Mhz.
100%

HD6850:
960 Shader - 775 Mhz
133%

HD6870
1120 Shader - 900 Mhz
158%

HD6950 (4D)
1408 Shader - 800 Mhz
176%

HD6970 (4D)
1536 Shader - 880 Mhz
195%

Ohne jetzt explizit den Takt zu bereinigen fällt mir die sehr durchweg fast lineare Skalierung auf. Sogar unabh. von 4D / 5D

Faszinierend, oder?
Deswegen könnte man auch ausgehend von Shaderzahl und dem Wissen ob 4D/5D fast aufs % die Leistung voraussagen.

Damit der Chip nicht durch das SI ausgebremst wird muss man nun zwingend auf 384Bit erhöhen oder den Speichertakt weiter nach oben schieben.

Im übrigen hat Cayman mit 1536 Shadern 389mm²
Der GF110 hat 520mm²

offensichtlich war es ein leichtes die 5D / 4D Bauweise von 80-1536 Shadern zu skalieren, fast linear. Warum sollte das nun massiv einbrechen? Der Cayman in 28nm dürfte auf ca 200mm² kommen, eventuell 250mm² - AMD hätte fast den Spielraum zu verdoppeln und 3000 Shader in 500mm² zu pressen (natürlich nur als HighEnd Modell).

Zwingenden Grund die Architektur über den Haufen zu werfen sehe ich nicht, es sei denn man kann die Effizienz pro mm² unabh. von 28nm nochmals steigern.

Ich bin gespannt wie sich die neue Architektur schlägt, ob man die oben genannte Reihe fortführen kann in Bezug auf Leistung mm² müsste man sich fast verdoppeln.
 
Zuletzt bearbeitet:
Also ich les aus der news für mich raus, dass ich mit meiner 5870 auch im kommenden Jahr weiterhin eine mehr als ausreichende GraKa haben werde. Das ist ganz gut, spart wieder Geld. :D

Schlussendlich sinds aber halt erstmal wieder nur Gerüchte und die wahren Leistungen sehen wir doch eh erst wenn sie draussen sind. Vielleicht stimmen die Angaben hier, vielleicht auch nicht. Da empfinde ich den Artikel schon fast zu lang dafür.
 
Swissjustme schrieb:
Überflüssiges Zitat entfernt *klick*
Stimmt zwar bezüglich der Effizienz, ist dem Anwender aber ziemlich schnuppe, da er die Grafikkarte nicht ohne restlichen PC betreibt.
 
Zuletzt bearbeitet von einem Moderator:
Krautmaster schrieb:
Überflüssiges Zitat entfernt *klick*

Hmm das mit dem Lesen ist immer noch so ne Sache. :rolleyes:

1. Schrieb ich was von 2048 Shadern
2. Ist unabhängig von 4D/5D die Skalierung überhaupt nicht linear. 5870 gleicher Takt, doppelt so viele Shader wie 5770, aber nur 70% schneller. 5850/5870 bei gleichem Takt gleich schnell. 6950/6970 bei gleichem Takt ebenfalls gleich schnell. Du betreibst einfach nur mithilfe von 4D Cherry Picking ;)
3. Sollte man solche Sachen taktbereinigen. Eine 6850 liegt bei 900 MHz bei 154%, ergo bringen der 6870 ihre 17% mehr Shader fast nichts mehr an Leistung

Also immer schön bei den Fakten bleiben. AMD wechselt nicht ohne Grund auf normale Vektoreinheiten wie nVidia.
 
Zuletzt bearbeitet von einem Moderator:
100% Lineare Steigerung wirst du nie sehen. Dennoch skaliert es gut, weit besser als dass man annehmen würde eine Änderung wäre zwingend notwendig.

Zumal auch Unterschiede in Treiber / Speichertakt /Bandbreite etc auch eine Rolle spielen.

Bei den HD6850 vs. 70 steht unterm Strich "nur" 20% Mehrleistung auf Seite der HD6870.
Allerdings sind die ROP Anzahl aus auch Speichertakt nahezu identisch bzw der Unterschied geringer als die Shader + Takt. Und komplett linear sollte man nicht erwarten.

Naja wird sich zeigen was AMD aus den Vectorshader rausholen kann... ähnlich wie bei Nvidia wird der Chip wohl deutlich wachsen trotz 28nm - bzw kaum die gute Effizienz / Transitorzahl halten können.
 
Zuletzt bearbeitet:
Warum hier so lang und breit über dieses "Gerücht" so lammentiert wird versteh ich nichtmal im Ansatz. Kaffeesatzlesen würde ich mehr Vertrauen schenken.

Wenn wir schonmal bei Gerüchten sind? Hier wird was von Ineffizienz erzählt...wenn man den letzten geleakten Folien "Glauben" schenken darf, sieht der Verbrauch prächtig aus! Oder habt ihr diese Folien wieder vergessen?!

Nur mal um bei der Logik von Krautmaster zu bleiben, müsste 7870 und 7850 so ziehmlich den 6970/6950 Derivaten in 28 entsprechen, auch was die Leistung betrifft. Wenn dem so ist, welchen Zweck erfüllen dann die deutlich teurer eingestuften 7970/50?

Es bleibt nichts anderes über als die Tests abzuwarten. Sich von Gerüchten irgendwelche Schlussfolgerungen über Kaufentscheidungen zusammen zu reimen,...fehlen mir echt die Worte!
 
Ich kann mir das nicht vorstellen, das man nicht die GTX580 eindeutig schlagen kann. Ich gehe eher davon aus das die HD7950 mit der GTX580 konkurieren wird und die HD7970 etwa 15 bis 20 % darüber liegen wird.

Sollte sich das dennoch bewahrheiten, na dann Prost Mahlzeit.
 
Zurück
Oben