News Weitere Gerüchte zur neuen Radeon-Grafikkartenserie

Für mich wird die neue Gen. wohl nichts.
Abgesehen vom neuen Metro glaube ich nicht, dass ein Spiel im kommenden Jahr meine 560 Ti überfordert.
Zudem wäre das einzig sinnvolle Update eine HD 7970.
 
@ Krautmaster

Sicher, wer ist das nicht?^^

Wenn man mal bei der (bescheuerten) Analogie zu BD bleibt, sich dabei die kommunizierte Preisgestaltung anschaut, dann wird hier bereits vieles ersichtlich. Als damals die ersten BD Preise im Netz rumschwirrten war bereits klar wohin die ,vermeintliche, Reise gehen würde. Die Summe wurde zum Releasezeitpunkt ständig nach unten hin korrigiert.

Wenn man sich die aktuell angepeilten Preise der Topkarten anschaut, sehen diese doch ein wenig selbstbewusster aus als beim BD. Auch wenn der angepeilte Preisbereich eine gnaze Leistungsklasse als Spektrum haben könnte von 449 und 549 US-Dollar, so sieht der Preis der Karten wieder nach richtigem "High-End" aus, anders als z.B. beim Evergreen damals).

Zu etwas gut müssen die GCN Karten ja sein. Wenn die 7870 so schnell ist wie eine 6970/570...wozu zum Geier soll man dann eine minimal schnellere 7950 rausbringen mit komplett neuer Archiktektur, höherem Verbrauch und deutlichen Mehrkosten?!
Das will alleine von der Logik her nicht in meinen Schädel...:freak:
 
Zuletzt bearbeitet:
ComputerBase schrieb:
Summa summarum würde eine HD 7950, die mehr oder weniger knapp an der GTX 580 scheitert, einen Vorsprung von 30 bis 40 Prozent gegenüber der aktuellen Radeon HD 6950 herausholen – ähnlich dürfte es dann auch bei der HD 7970 gegenüber der aktuellen HD 6970 aussehen.
Nicht nur das ich von AMD zu Intel (Ivy-Bridge) wechseln werde, wechseln werde ich auch von AMD/ATI zu Nvidia. Dieses Mal reicht mir nicht die Leistung einer 7950. Da möchte ich schon deutlich mehr Grafikpower haben.
Ich hätte nie gedacht, dass ich mal eine Intel/Nvidia Kombination nutzen werde.....
 
Zuletzt bearbeitet von einem Moderator:
Sputnik 1 schrieb:
Handelt es sich jetzt bei den beiden Karten, um die NextGen GPUs oder sind die noch nach alter Technik?

7950 und 7970 Technik Next Gen, Performance wie ein DIE Shrink, Preis wie Next Gen. :D
Alles da runter kein Next Gen, teilweise aber Shrink auf 28 nm.

Bezüglich Preis und Performance würde ich mir aber noch keine Brille machen.
Die 6950 und die 6970 waren dann auch viel billiger als vorher angesetzt.
Bezüglich Performance plappert einer was vor und alle anderen Seiten plappern was nach.
Seriöser Journalismus ist was andres und auf Fakten basiert da nicht viel.

Die einzig wirkliche Information in der Überschrift: "Gerüchte".
Aber zum Klicks auf CB zu generieren ist das Thema ja ganz nett :D

Bevor NV nicht mit ihren Karten da ist, hat man sowieso nichts in der Hand.
GTX 580 +10% schafft der 28nm Prozess bei NV locker.
Danach muss AMD dann die Preise einstellen, sollte die Bla-bla News wirklich so eintreten.
 
Ich warte wie immer, bis beide Hersteller ihre Karten auf den Tisch gelegt haben und entscheide dann, für welche Ich mich entscheide. Wenn Ich aber lese, dass die HD 7970 gerade so eine GTX 580 packt, dann tendiere Ich doch eher dazu, mir eine GTX 580 zum wahrscheinlich günstigeren Preis zu kaufen oder mir eine GTX 680 für etwa 100€ mehr zu gönnen.
 
Was nicht in meinen Kopp will, ist dass der HKMG Prozess absolut nix zu bringen scheint! Zumindest bei den Spekus.
 
matty2580 schrieb:
Da möchte ich schon deutlich mehr Grafikpower haben.

Wofür denn? Eine GTX580 ist jetzt schon für 99% aller Spiele absolut überdimensioniert und bevor nicht PlayStation4 und XBox720 erscheinen, wird sich daran auch nichts mehr ändern.

Nvidia erkauft sich die Leistungskrone seit ein paar Jahren immer nur durch abnormal hohen Stromverbrauch und kranke Preise. AMD bietet da meist ein runderes Paket in dem Leistung, Stromverbrauch und Anschaffungskosten gleichermaßen berücksichtigt werden. Über Bildqualität lässt sich streiten, bei Nvidia gibts das bessere AF, bei AMD das besser AA, im laufenden Spiel sieht man eh keinen Unterschied.

Die AMD Grafikkarten werden seit Jahren schlechter geredet als sie eigentlich sind. Viele sehen die Benchmarks und denken "10% mehr Leistung, die muss ich haben!". Das diese 10% in vielen Spielen nur 2,3 oder 4 FPS ausmachen, blenden die Leute dann komplett aus und kaufen sich für 500€ eine Karte mit super hohem Stromverbrauch, anstatt auf die 2,3 oder 4 FPS zu furzen und sich für 300€ das stromsparendere Modell zu kaufen...

Nvidia steckt ohne Ende Kohle ins Marketing und es zahlt sich absolut aus, wie man hier immer wieder sehen kann. Die Produkte werden dadurch aber kein bisschen besser.
 
Die Kritik an der Bildqualität konnte ich persönlich auch noch nie verstehen. Als würde man die Karten für hochprofessionelle Bildbearbeitung verwenden, wo es auch aufs minimalste Detail ankommt, wenn man ohnehin am Eizo-IPS-Display arbeitet.

Aber beim Gaming? Oder in Windows? Who cares? Ich würd's wirklich gerne verstehen, denn ich schau gern über den Tellerrand. Vielleicht könnte mich mal jemand der Bildqualitäts-Kritiker aufklären... macht ihr Ingame-Screens, schaut euch diese dann im Detail an und geht euch einer ab, weil die Qualität des Bildes so supergut ist? Beim Zocken sieht man da imho keinen Unterschied, falls doch, welchen? Lass mich wie gesagt gerne eines besseren belehren. Und im Alltagsbetrieb (Non-Gaming)? Worauf kommt es da denn an? Worauf schaut ihr, auf die ausgeführte Anwendung oder auf jeden einzelnen Pixel? Das ist für mich persönlich so, als würde man beim Autofahren die Steinschläge auf der Windschutzscheibe zählen, statt auf die Straße zu schauen. Und sich dabei noch ärgern, dabei sieht man hindurch ohnehin dasselbe Bild.

Die 50:50-Vergleichsbilder ein paar Seiten zuvor habe ich mir übrigens genau angesehen und konnte nicht nur nicht sagen, welche Seite zu welchem Hersteller gehört... sondern empfand den wahrgenommenen Unterschied zwischen beiden Hälften als so minimal, dass ich mich seitdem frage, was der Terz soll.
 
Ich glaube, es ist höchste Zeit für einen aufklärenden Artikel auf Computerbase, um endlich mit den falschen Vorstellungen hier aufzuräumen.

Es geht bei der BQ-Diskussion um Downsampling, SGSSAA, flimmerfreies tri-AF, AA-Bits für höhere AA-Kompatibilität bzw. bessere Glättung. In all diesen Bereichen hat AMD mehr oder weniger stark das Nachsehen.
Es kann mir auch keiner erzählen, dass er keinen Unterschied zwischen z.B. 4xMSAA und 4xSGSSAA sieht. Wer das behauptet, spielt entweder alte Spiele, wo dies nichts bringt oder hat es noch nie in Aktion gesehen. Vergleichsbilder taugen nichts, es müssen schon hochaufgelöste unkomprimierte Vergleichsvideos oder noch besser gleich der Selbstversuch sein.

Mit einem großen Monitor und/oder den richtigen fordernden Einstellungen kriegt man selbst 4x580 3GB klein. Das sind dann eher Extremfälle, aber 2-3x580 3GB bekommt man oft ohne weiteres zum Keuchen. 3DVision und NV Surround sind da noch nicht inbegriffen. Mehr Leistung kann man immer einsetzen, man muss nur wissen wie.
 
Zuletzt bearbeitet:
Das bessere alltagstaugliche AA gibts bei AMD: Das adpative AA glättet transparente Texturen besser als bei Nvidia und den Custom-Filters, idealerweise dem Edge Detect Filter, hat Nvidia nichts entgegenzusetzen. Mehr braucht man für ein sauberes Bild einfach nicht, es sei denn man möchte mit der Lupe suchen. Darüberhinaus weisen die AMD-AA Modi die höhere Kompatibilität mit Spielen auf.

Nvidia propagiert (unscharfes) SGSSAA, welches in modernen Titeln nicht vernünftig spielbar ist, da es mal locker 80% oder mehr der gesamten Framerate killt. Downsampling ist ein reiner Screenshoteffekt für Werbezwecke oder Uralttitel, der sogar noch mehr Performance frisst als Supersampling. Für den Alltag bleiben AA-Modi, die nicht an die Qualität der AMD Karten heranreichen und eine geringere Kompatibilität.

Aber für den typischen Nvidiakunden zählt natürlich nur eines: Zu wissen "man könnte". Wer keine Grafikkarte(n) für 500-1500€ im Rechner hat, für den sind die tollen Nvidia AA-Modi nicht nutzbar. Alles über Adaptive-AA ist in modernen Games nicht praktikabel bzw so langsam, dass die 500€+ rausgeschmissenes Geld sind. Wer gibt schon 500€ oder mehr aus, nur um eine geringere Framerate zu haben als auf der 230€ Konsole?
 
Zuletzt bearbeitet:
keine BQ Diskussion bitte. Das wird mit den neuen Shadern wohl auch wieder anders ausfallen. Wichtig wäre nur dass dies untersucht wird. Mit Videos.
 
matty2580 schrieb:
Dieses Mal reicht mir nicht die Leistung einer 7950. Da möchte ich schon deutlich mehr Grafikpower haben.
Weiviel Leistung hat sie denn? Das weiß, wenn überhaupt, bisher nur AMD. Daß Du auf völlig unklare Gerüchte eine Kaufentscheidung fällst, ist albern. Das steht noch nichts fest und da kann man noch nix kaufen.

Ich hätte nie gedacht, dass ich mal eine Intel/Nvidia Kombination nutzen werde.....

Und? Wayne...
 
nanoworks schrieb:
Das bessere alltagstaugliche AA gibts bei AMD: Das adpative AA glättet transparente Texturen besser als bei Nvidia und den Custom-Filters, idealerweise dem Edge Detect Filter, hat Nvidia nichts entgegenzusetzen. Mehr braucht man für ein sauberes Bild einfach nicht, es sei denn man möchte mit der Lupe suchen. Darüberhinaus weisen die AMD-AA Modi die höhere Kompatibilität mit Spielen auf.

Ich mach mich mal auf die Suche nach einem Vergleich zwischen TSSAA und AAA, aber soweit ich weiß, gibts da keine nennenswerten Unterschiede. Zum Fettgedruckten: Das stimmt nicht. Heutzutage flimmert fast jeder Shader, da kannst du Transparenz-AA mit der Pfeife rauchen, das bringt überhaupt nichts. Die Kompatibilitätsgeschichte ist auch nicht korrekt. Mit AA-Bits kannst du bei Nvidia deutlich häufiger AA erzwingen. Würde mich interessieren, wo du das her hast. MLAA ignoriere ich hier vorsätzlich, das ist für mich kein AA.

nanoworks schrieb:
Nvidia propagiert (unscharfes) SGSSAA, welches in modernen Titeln nicht vernünftig spielbar ist, da es mal locker 80% oder mehr der gesamten Framerate killt. Downsampling ist ein reiner Screenshoteffekt für Werbezwecke oder Uralttitel, der sogar noch mehr Performance frisst als Supersampling. Für den Alltag bleiben AA-Modi, die nicht an die Qualität der AMD Karten heranreichen und eine geringere Kompatibilität.

Das NV SGSSAA kann unscharf sein. Das Problem an SGSSAA ist, dass es mit PP-Effekten kollidiert, was zu Blur führen kann. Allerdings glättet Nvidias SGSSAA auch besser/aggressiver als das von AMD, und genau daraus kann besagter Blur herrühren. Dazu gibt es im guru3d Forum nette Bildvergleiche. Abhilfe schaffen meist AA-Bits. Ab DX10 blurrt es nach meinen eigenen Experimenten im Vergleich zu DX9 kaum bis gar nicht.

Man wird auch gar nicht gezwungen, gleich 8x draufzusemmeln. 2x und 4x sind deutlich billiger. Die Kompatibilität ist bei Nvidia auch deshalb besser, weil man durch die AA-Bits öfters MSAA erzwingen kann, was im Übrigen die Voraussetzung für SGSSAA ist. Kein MSAA -> kein SGSSAA. Und unter DX10/11 geht es bei AMD sowieso nicht. Soviel zur Kompatibilität.

Downsampling kostet viel Performance, korrekt. Dafür ist es qualitativ deutlich besser als der FXAA/SMAA/MLAA-Mist, der sich in letzter Zeit ausbreitet. In Kombination mit diesen PP-AA-Methoden ergibt sich allerdings ein recht anständiges Bild. Dass das nur für Spiele sinnvoll ist, wo SGSSAA gar nicht geht, ist selbstredend, für alles andere ist es zu teuer. Solche Spiele werden aber leider immer häufiger.

nanoworks schrieb:
Aber für den typischen Nvidiakunden zählt natürlich nur eines: Zu wissen "man könnte". Wer keine Grafikkarte(n) für 500-1500€ im Rechner hat, für den sind die tollen Nvidia AA-Modi nicht nutzbar. Alles über Adaptive-AA ist in modernen Games nicht praktikabel bzw so langsam, dass die 500€+ rausgeschmissenes Geld sind. Wer gibt schon 500€ oder mehr aus, nur um eine geringere Framerate zu haben als auf der 230€ Konsole?

Deinen frechen Seitenhieb "typischen Nvidiakunden" kannst du grad mal stecken lassen. Es gibt nunmal Leute mit höheren Ansprüchen als deine, die zwei oder mehr Grafikkarten besitzen. Mit der neuen Generation, um die es hier geht, verschärft sich das Problem noch weiter: Mehr Leistung, aber man weiß oft nicht, wohin damit.

Wir haben es beim P4 gelernt, dass Taktrate nicht alles ist. Framerate ist (wenn es das eigene Flüssigkeitsempfinden befriedigt) auch nicht alles. Ich persönlich würde niemals mit Tearing spielen, d.h. alles über 60 fps ist mir sowieso egal. In langsameren Spielen, in denen man nicht durch die Spielwelt hetzt (z.B. Skyrim) kann fps vs. Bildqualität durchaus ein sinnvoller Tradeoff für manche Spieler sein.
 
Ja Bezüglich AMD sind die Türken gut informiert, zu gut meiner Meinung nach. AMD könnte diesen Kanal ebenfalls nutzten um Falschmeldungen zu streuen (siehe 4870 damals).

Zu BD hatten die Türken immer die passenden Folien parat. Auch wurden von denen ständig in der Vergangenheit "AMD" Folien veröffentlicht, auf denen der BD 50% vor dem i7 950/ 1100t liegt....

Von daher sollte man das ganze mit einer gesunden Portion Skepsis bewerten :rolleyes:



Und bitte diskutiert diese leidige BQ-Diskussion in einem entsprechenden Thread, das ist OFFTOPIC. Das führt zu garnichts!
 
Das Gerücht stimmt, weil:
- AMD so gut es nur geht bei Leistung/Verbrauch wirklich am besten abschneiden will und trotzdem genügend perfomante Karten rausschicken will.
Nur ist das marketingtechnisch gesehen nicht so top meiner Meinung nach.
- AMD wird wohl nicht länger zögern, und die 8K Karten rausbringen, die dann genau das macht, was wir jetzt erwarten. Nämlich Leistung ohne Ende bringen und rundherum bei Midrange, High-End und Enthusiast richtig wenig an Stromverbrauch bevorsteht, bei satter Leistung.

Das Gerücht stimmt nicht, weil:
- Die Performancekrone wichtiger ist. Marketingtechnisch gesehen. Eine gewisse moderate, gut ansehende Verbrauch könnte ja drinliegen, dafür eine ordentliche Portion Mehrleistung. Würde sich besser verkaufen. Andererseits siehe bei Gerücht stimmt 2. Punkt.
 
Zuletzt bearbeitet:
Gut, was erwartet man auch.
Ich hätte vielleicht erwartet das eine 7950 mit der GTX 580 spielt, also mal mehr mal weniger kanpp davor rangiert. Das würde erlauben mit der 7970 ungeahnte Preisregionen zu bedienen und den Preiskampf mit der 7950 zu machen, zudem dann die 7990 nochmals Preise in ungeahnter erhöhe haben könnte. Und das für die Monate die Nvidia braucht um nachzuziehen.

Nach den Gerüchten zu folge gibt es aber immernoch 3 Mögliche Szenarien.
Einmal AMD ist immernoch bedeutend effizienter und bringt daher keine enormen Sprünge, zumal Keplar auch keine Wunder bringen kann!!!
zweitens, AMD hat durch das neue Design auch diverse probleme mit der Effizienz und kann daher keine allzu großen sprünge machen.
Oder drittens die Gerüchte stimmen einfach nicht :freak:

in jedemfall ist klar, es ist nichts klar.
Normalerweise würd ich sagen, kein Normaldenkender Konzern bringt ein Produkt das nicht mit dem vorgänger konkurrieren kann, sprich ein 6970shrink muss langsamer sein !!!!!
Da aber AMD auch einen Bulli bringt, dessen vorteile gegenüber eines geshrinkten Phenoms im Desktop wohl unentdeckt sind. Lassen wir uns da mal vollends überaschen.

Ich weiß. die vergleiche zu BD sind eigentlich schwachsinn, verallendingen deswegen auf die Performance zu schließen ist Hirnlos ... aber über die Strategien von AMD kann man seitdem schon Philosophieren xD

wenn eine 7950, mit Perforance einer GTX570+ daher kommt, eine super Effizienz bringt, geniale Idles Modi, und Preislich vernünftig angesiedelt ist, werd ich sie kaufen.
(als Krönung noch zum Freischalten auf 7970 :D )
 
Naja BD wurde ja nun für den Servermarkt entwickelt. Bei der schlechten Presse die er im Desktop macht hätte AMD vielleicht überlegen sollen, BD nicht im Desktop zu bringen. Aber ne wirklich Wahl hatten sie wohl nicht.

Bei Grafikkarten ist das ja nun anders. Die werden definitiv direkt für den Desktopmarkt entwickelt...
Von daher sehe ich das entspannter und wenn nur die "alten" günstiger werden...
 
Zurück
Oben