Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News Weitere Gerüchte zur neuen Radeon-Grafikkartenserie
- Ersteller Volker
- Erstellt am
- Zur News: Weitere Gerüchte zur neuen Radeon-Grafikkartenserie
il-bastone
Ensign
- Registriert
- Sep. 2010
- Beiträge
- 197
Pickebuh schrieb:Das bis jetzt keine Benches geleakt sind, hat leider ein böses Ohmen.
Hersteller machen aus Marketinggründen solche Leaks selber um ihr Produkt im Vorfeld zu Pushen. Nach dem Motto: Ups... Wir wollte doch euch gar nichts zeige wie phänomenal und überragend unser neues Produkt ist und die Konkurrenz so unglaublich niederschmettert.
Entschuldigt bitte die kleine Information.
Derweilen drücken sich dann die Leute die Nase an den Schaufenstern platt bis endlich die Tür aufgeht und alle übereinander in den Laden fallen.
Wenn allerdings solche (Leaks) eher negativ ausfallen könnten, so ist es eben denkbar, das der Hersteller eben dafür sorgt gründlicher zu sein und eben keine versehentlichen Leaks verliert.
Da könntest du wohl leider gar nicht so unrecht haben :/ ...könnte man sehr negativ deuten. Oder sie wollen die gute Leistung aus taktischen Gründen ganz geheim halten. Auf jeden Fall ist es seehr komisch, dass da gaar nichts kommt.
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ich habe die Tage selbst überlegt, ob ich auf 2560x1600 gehen soll. Es stimmt schon, was du sagst.boxleitnerb schrieb:Ja, es sind nur 5%, die sowas kaufen, aber Bedarf gibt es nichtsdestotrotz. 250W TDP hat sich mehr oder weniger etabliert im Enthusiastbereich und wird auch nicht sinken, wenn man deutlich mehr Leistung als bei der Vorgängergeneration will.
Wiederrum differenzieren sollte man jedoch zwischen den Facelifts der aktuellen HD6900er Serie, die "lediglich" einen Shrink auf 28nm erfahren könnten. Das ist die eine Seite der Medaille. Auf der anderen stehen noch die Möglichkeiten mit einer HD7990 mit CGN für "dich".
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
Zwirbelkatz schrieb:Wenn eine AMD Karte diese Leistung theoretisch für weniger Geld oder bei 50 Watt weniger Verbrauch schafft, ist doch alles in Butter.
In Butter vllt ja. Für 28nm trotzdem ernüchternd.
"lediglich" Shrink, im Gegensatz zu CPU bringt bei GPU gerade der Shrink am meisten Zuwachs...
Imho werden Recheneinheiten oft mehr als verdoppelt, bei ähnlichem Verbrauch und meist etwas mehr Takt.
Beim Aufbau einer GPU schlägt sowas fast 1:1 durch, ultraparallel eben.
Sollte jedenfalls... wenn AMD natürlich das Rad neu erfindet und Gutes mal eben über Boad wirft um auf den Computing Zug aufzuspringen dann wird der neue Chip effizienztechnich ein FAIL wie Bulldozer...
Leider kündigt sich gerade das irgendwie an.
Zuletzt bearbeitet:
Herdware
Fleet Admiral
- Registriert
- Okt. 2011
- Beiträge
- 17.898
Ich finde es auch etwas merkwürdig, wenn hier Leute sagen, dass keiner High-End-Karten braucht. Dabei haben doch unzählige Testes, auch bei CB, gezeigt, dass fast in allen aktuellen Spielen die GPU limitiert.
Eine einzelne, heute aktuelle High-End-GPU bremst alles außer die absoluten Low-End-CPUs oder Modelle aus der vorletzten Generation aus. Damit die großen SB-Quadcores oder gar die SB-E ihr Potential voll ausspielen können, braucht es also neue GPUs, die mindestens das Zwei- bis Dreifache aktueller High-End-GPUs leisten.
Eine einzelne, heute aktuelle High-End-GPU bremst alles außer die absoluten Low-End-CPUs oder Modelle aus der vorletzten Generation aus. Damit die großen SB-Quadcores oder gar die SB-E ihr Potential voll ausspielen können, braucht es also neue GPUs, die mindestens das Zwei- bis Dreifache aktueller High-End-GPUs leisten.
nanoworks
Commander
- Registriert
- Okt. 2009
- Beiträge
- 2.209
Wenn die Leistung wirklich so schlecht wäre, dann würde AMD wohl kaum so früh veröffentlichen. Sie würden die Zeit nutzen, um die neuen Karten aufzupeppen. Bulldozer wurde auch unverhältnismaßig lange zurückgehalten und den Rest der Geschichte kennen wir ja.
Weitaus mehr als fehlende Propaganda-Benchmarks wundert mich nämlich, dass Nvidias Topmodelle angeblich erst so spät im Jahr 2012 erscheinen sollen. Die ganze Situation erinnert ein wenig an Evergreen und Fermi und AMD hat damals den Grafikkartenmarkt absolut dominiert.
@ Herdware: Das liegt vermutlich daran, dass beinahe jedes Spiel mit maximalen Settings auf einer aktuellen 150€ Karte läuft. Es gibt nur ganz, ganz wenige Titel, die wirklich nach einer GTX580 schreien. Wenn man bei diesen Spielen aber mittlere Grafikeinstellungen in Kauf nehmen kann (viele schaffen das ja nicht, ka warum, bin kein Psychologe...), dann kommt man super zurecht, ohne gleich 500€ für eine Grafikkarte auszugeben.
Weitaus mehr als fehlende Propaganda-Benchmarks wundert mich nämlich, dass Nvidias Topmodelle angeblich erst so spät im Jahr 2012 erscheinen sollen. Die ganze Situation erinnert ein wenig an Evergreen und Fermi und AMD hat damals den Grafikkartenmarkt absolut dominiert.
@ Herdware: Das liegt vermutlich daran, dass beinahe jedes Spiel mit maximalen Settings auf einer aktuellen 150€ Karte läuft. Es gibt nur ganz, ganz wenige Titel, die wirklich nach einer GTX580 schreien. Wenn man bei diesen Spielen aber mittlere Grafikeinstellungen in Kauf nehmen kann (viele schaffen das ja nicht, ka warum, bin kein Psychologe...), dann kommt man super zurecht, ohne gleich 500€ für eine Grafikkarte auszugeben.
Zuletzt bearbeitet:
- Registriert
- Juni 2006
- Beiträge
- 44.444
Ich schrieb "kaum jemand". Kaum jemand ist nicht "keiner".Herdware schrieb:Ich finde es auch etwas merkwürdig, wenn hier Leute sagen, dass keiner High-End-Karten braucht.
Skyrim ist quasi cpu-limitiert. Ich finde, du gehst ein wenig freizügig um mit deinen Superlativen.Damit die großen SB-Quadcores oder gar die SB-E ihr Potential voll ausspielen können, braucht es also neue GPUs, die mindestens das Zwei- bis Dreifache aktueller High-End-GPUs leisten.
Es wird immer die oberen 5% geben, die auf 5000x1600 spielen wollen oder auf 2560x1600 mit 8x MSAA oder wie es jeweils heißt.
Dein Wort möge erhört werden ...Wenn die Leistung wirklich so schlecht wäre, dann würde AMD wohl kaum so früh veröffentlichen. Sie würden die Zeit nutzen, um die neuen Karten aufzupeppen.
Vidy_Z
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 851
Wie gesagt, die AMD Karten könnten sowohl ziemlich heiß werden, nicht überragend schnell wie auch relativ teuer, einfach deshalb weil AMD die Karten auf GPGPU Anwendungen auslegen wird und dazu mehr Chipfläche benötigt. Ich wäre nicht sonderlich überrascht, da es ja auch kein Geheimnis ist wie sich eine solche Chipauslegung seinerzeit auf Nvidias Fermi ausgewirkt hat.
Etwaigen Kunden die deshalb den Anbieter wechseln, steht der stetig wachsende Markt professioneller Numbercrasher Anwendungen entgegen. Da will AMD anscheinend den Anschluss nicht verpassen und wird das Verhältnis zwischen Spielern und Profis wohl sorgsam abwägen.
Etwaigen Kunden die deshalb den Anbieter wechseln, steht der stetig wachsende Markt professioneller Numbercrasher Anwendungen entgegen. Da will AMD anscheinend den Anschluss nicht verpassen und wird das Verhältnis zwischen Spielern und Profis wohl sorgsam abwägen.
Effe
Commander
- Registriert
- März 2011
- Beiträge
- 2.296
Sich hier bereits wieder zu beschweren wegen eines paar völlig ungenauen Gerüchts, ist wieder mal klasse.
Ich denke da liegt ein Irrtum vor.
Wenn die 6970/50 in 28nm zu 7870/50 geschrumpft werden und dadurch 10-15% Leistung gewinnen, dann 7870>580>7850>570. Insofern passt das.
Wenn die 7970/50 dann Leistungstechnisch gleichwertig wären, wären sie überflüssig und AMD hätte sie schon längst eingestampft.
Das wird nicht passieren. Die 7900er Serie wird darüber angesiedelt, weiviel % Vorsprung es werden, wird sich zeigen. Aber das o.g. Gerücht klingt unplausibel.
Ich denke da liegt ein Irrtum vor.
Wenn die 6970/50 in 28nm zu 7870/50 geschrumpft werden und dadurch 10-15% Leistung gewinnen, dann 7870>580>7850>570. Insofern passt das.
Wenn die 7970/50 dann Leistungstechnisch gleichwertig wären, wären sie überflüssig und AMD hätte sie schon längst eingestampft.
Das wird nicht passieren. Die 7900er Serie wird darüber angesiedelt, weiviel % Vorsprung es werden, wird sich zeigen. Aber das o.g. Gerücht klingt unplausibel.
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
@ Effe
bei den Gerüchten geht es aber um die Topmodelle HD7950 und HD7970, nicht 78XX.
bei den Gerüchten geht es aber um die Topmodelle HD7950 und HD7970, nicht 78XX.
- Registriert
- Sep. 2006
- Beiträge
- 10.248
Yeah, ich freu mich drauf!
Habe erst gerade kürzlich überlegt, meine 5850 gegen eine GTX 570 zu ersetzen. Jetzt warte ich doch erst mal auf die neuen Radeons, vor allem in Erwartung an rapide sinkende Preise für die "alten" Karten wie 6970 und GTX 570.
Aber die 7870 hört sich sehr interessant an. Vom vermuteten Preis würde ich sie leistungsmäßig knapp unterhalb der GTX 580 einordnern, die ja immerhin zurzeit rund 100 € teurer ist. Mehr als 300 € mag ich persönlich nicht für eine Grafikkarte ausgeben, wobei ich trotzdem im Schnitt 50 % Mehrleistung voraussetze.
Habe erst gerade kürzlich überlegt, meine 5850 gegen eine GTX 570 zu ersetzen. Jetzt warte ich doch erst mal auf die neuen Radeons, vor allem in Erwartung an rapide sinkende Preise für die "alten" Karten wie 6970 und GTX 570.
Aber die 7870 hört sich sehr interessant an. Vom vermuteten Preis würde ich sie leistungsmäßig knapp unterhalb der GTX 580 einordnern, die ja immerhin zurzeit rund 100 € teurer ist. Mehr als 300 € mag ich persönlich nicht für eine Grafikkarte ausgeben, wobei ich trotzdem im Schnitt 50 % Mehrleistung voraussetze.
WarumAuchNicht
Lt. Commander
- Registriert
- Apr. 2008
- Beiträge
- 1.744
Wie schon mehrfach erwähnt - einfach mal abwarten und Tee trinken.
Ich freue mich jedenfalls auf die ersten Benches und auch darüber, dass die Karten scheinbar bald kommen.
Möglicherweise werden auch schon zeitnah erste Leaks kommen - selbst wenn, wie hier vermutet vom Hersteller iniziert - da immerhin schon mit "relativ realistischen" Werten (Radeon HD 6990>GeForce GTX 590> Radeon HD 7970>GeForce GTX 580>Radeon HD 7950>GeForce GTX 570>Radeon HD 6970 Quelle jongliert wird.)
Wenn Energieverbrauch/Leistung und Preis/Leistung stimmt sieht in meinen Augen alles positiv aus, auch wenn die Enthusiasten etwas traurig sein werden
Grüße
Ich freue mich jedenfalls auf die ersten Benches und auch darüber, dass die Karten scheinbar bald kommen.
Möglicherweise werden auch schon zeitnah erste Leaks kommen - selbst wenn, wie hier vermutet vom Hersteller iniziert - da immerhin schon mit "relativ realistischen" Werten (Radeon HD 6990>GeForce GTX 590> Radeon HD 7970>GeForce GTX 580>Radeon HD 7950>GeForce GTX 570>Radeon HD 6970 Quelle jongliert wird.)
Wenn Energieverbrauch/Leistung und Preis/Leistung stimmt sieht in meinen Augen alles positiv aus, auch wenn die Enthusiasten etwas traurig sein werden
Grüße
Effe
Commander
- Registriert
- März 2011
- Beiträge
- 2.296
Das meine ich ja, das klingt nicht plausibel. Die Leistungseinordnung passt eher zu 7800er Serie. Die geringe Steigerung ist (wahrscheinlic) auch durch den Shrink zu bewerkstelligen, da brauchts keine CGN oder wie das heißt. Deswegen gehe ich, zumindest in diesem Punkt, won einem Fehler aus
Death666Angel
Lt. Junior Grade
- Registriert
- Nov. 2009
- Beiträge
- 423
Mal schaun was die Gerüchte wert sind. Wenn sie stimmen machen die Preise für mich wenig Sinn. Oder die Dollarpreise sind komplett anders als ich es aus den Europreisen ableite. Naja, eine der 28nm GraKas wird es bei mir im nächsten Jahr werden, ob AMD oder nVidia wird sich dann zeigen.
Sun_set_1
Captain
- Registriert
- Sep. 2008
- Beiträge
- 4.038
Also irgendwie sind die Schlussfolgerungen in dem Artikel ziemlich unlogisch.
Erst wird gesagt dass eine 7970 die GTX 580 angreift, die 7950 die GTX 570, so weit so gut.
3 Quervergleiche später heißt es dann, eine 7970 könne bis zu 40% schneller sein als eine 6970.
Eurem eigenen Benchmark nach, müsste eine 7970 also runde 20% bis zu 30% schneller sein als eine GTX580.
Siehe oben. Logik? Wenn also 10 bis 15 % diff. zwischen den Karten liegen und ich optimaler Weise davon ausgehe, dass eine 7950 nur knapp unter eine GTX 580 rangiert, dürfte eine 7970 maximal 10-13% schneller sein als eine GTX 580. Und damit maximal. 20% schneller als eine 6970
Eure anschließende Schlussfolgerung, dass eine 7970 30% bis 40% schneller ist, ist absolut unlogisch und passt in keinem Fall zu dem, was der Autor selbst 4 Zeilen vorher schlussfolgert.
Bitte einmal überarbeiten, die Schlussfolgerungen passen hinten und vorne nicht.
Erst wird gesagt dass eine 7970 die GTX 580 angreift, die 7950 die GTX 570, so weit so gut.
3 Quervergleiche später heißt es dann, eine 7970 könne bis zu 40% schneller sein als eine 6970.
Eurem eigenen Benchmark nach, müsste eine 7970 also runde 20% bis zu 30% schneller sein als eine GTX580.
Da die Pro- und XT-Variante bei AMD meist nur 10-15 Prozent in der Performance trennen, dürfte es demzufolge ein enger Kampf mit der GTX 580 für eine der beiden Karten werden
Siehe oben. Logik? Wenn also 10 bis 15 % diff. zwischen den Karten liegen und ich optimaler Weise davon ausgehe, dass eine 7950 nur knapp unter eine GTX 580 rangiert, dürfte eine 7970 maximal 10-13% schneller sein als eine GTX 580. Und damit maximal. 20% schneller als eine 6970
Eure anschließende Schlussfolgerung, dass eine 7970 30% bis 40% schneller ist, ist absolut unlogisch und passt in keinem Fall zu dem, was der Autor selbst 4 Zeilen vorher schlussfolgert.
Bitte einmal überarbeiten, die Schlussfolgerungen passen hinten und vorne nicht.
Zuletzt bearbeitet:
Vidy_Z
Lieutenant
- Registriert
- Okt. 2009
- Beiträge
- 851
@Effe
Das mit der GPGPU Beschleunigung das ist kein Gerücht mehr, darauf beruft sich AMD höchst selbst. Und die Folgen davon? Naja, einfach mal drüber nachdenken...
Einen Vorteil hat das ganze aber. Nämlich den, dass neue Spiele dann ebenfalls von Open CL Gebrauch machen können, was sogar recht wahrscheinlich ist, weil dann in Zukunft sowohl AMD wie auch Nvidia über die selbe neue Beschleunigerschnittstelle, also Open CL verfügen werden. Spieleentwickler müssten dann also nicht mehr zweigleisig programmieren.
Übrigens können neue Spiele mit OpenCL um Klassen realistischer dargestellt werden. In meinen Augen ist das eine gute Entwicklung.
Das mit der GPGPU Beschleunigung das ist kein Gerücht mehr, darauf beruft sich AMD höchst selbst. Und die Folgen davon? Naja, einfach mal drüber nachdenken...
Einen Vorteil hat das ganze aber. Nämlich den, dass neue Spiele dann ebenfalls von Open CL Gebrauch machen können, was sogar recht wahrscheinlich ist, weil dann in Zukunft sowohl AMD wie auch Nvidia über die selbe neue Beschleunigerschnittstelle, also Open CL verfügen werden. Spieleentwickler müssten dann also nicht mehr zweigleisig programmieren.
Übrigens können neue Spiele mit OpenCL um Klassen realistischer dargestellt werden. In meinen Augen ist das eine gute Entwicklung.
Zuletzt bearbeitet:
r00t~
Lt. Junior Grade
- Registriert
- Jan. 2011
- Beiträge
- 341
Selbst wenn die 7970 die 580 um 30% schlagen sollte fänd ichs enttäuschend... Unter einem "Big Bang" verstehe ich was anderes... Die 470 schlägt je nach Anwendung öfters die 295, hätte mir erhofft dass eine 7970 dann nicht die 580 "angreift" sondern die 590 toppt... Was ist der Sinn neuer Karten, die können, was jetzige Karten auch können? Hoffe, dass die Köche die Gerüchtesuppe versalzen haben, sonst wird das ne ziemliche Enttäuschung...
Krautmaster
Fleet Admiral
- Registriert
- Feb. 2007
- Beiträge
- 24.312
"Es stimmt schon: Viel hat sich am Grafikkartenmarkt im letzten Jahr nicht getan."
joa. genau weil sich da meist nur bei Shrinks etwas tut... Grafikkarten kauft man am besten 2-3 Monate nach Shrink Generations Release wenn die Preise stabil sind, dann halten sie auch am längsten. Seit dem letzten Shrink HD5870 hat sich praktisch kaum was getan.
Selbiges bei GTX280 -> GTX480. Shrink bedeutet massive Mehrleistung - zuletzt immer bei über 100% mehr Rohleistung.
Aber alles Gerüchte, leider hatte OBR auch bei Bulldozer recht... hoffentlich ist der HD79XX Chip nicht genauso ein Schritt rückwärts wie der Bulldozer (20-30% Mehrleistung bei selbem Verbrauch + Chipgröße sind in meinen Augen hier ein Schritt zurück), wobei AMD seit den 5D Shadern ohnehin eher führend ist bezüglich Effizienz im Grafiksegment.
@Sun_set_1
naja,
https://www.computerbase.de/2011-11...60-ti-448-core/5/#abschnitt_leistung_mit_aaaf
das dürfte noch für einen Vergleich am besten sein. 21% Mehrleistung für die GTX580 bei Full HD und 4x AA, das wohl gängigste Setting.
joa. genau weil sich da meist nur bei Shrinks etwas tut... Grafikkarten kauft man am besten 2-3 Monate nach Shrink Generations Release wenn die Preise stabil sind, dann halten sie auch am längsten. Seit dem letzten Shrink HD5870 hat sich praktisch kaum was getan.
Selbiges bei GTX280 -> GTX480. Shrink bedeutet massive Mehrleistung - zuletzt immer bei über 100% mehr Rohleistung.
Aber alles Gerüchte, leider hatte OBR auch bei Bulldozer recht... hoffentlich ist der HD79XX Chip nicht genauso ein Schritt rückwärts wie der Bulldozer (20-30% Mehrleistung bei selbem Verbrauch + Chipgröße sind in meinen Augen hier ein Schritt zurück), wobei AMD seit den 5D Shadern ohnehin eher führend ist bezüglich Effizienz im Grafiksegment.
@Sun_set_1
naja,
https://www.computerbase.de/2011-11...60-ti-448-core/5/#abschnitt_leistung_mit_aaaf
das dürfte noch für einen Vergleich am besten sein. 21% Mehrleistung für die GTX580 bei Full HD und 4x AA, das wohl gängigste Setting.
Zuletzt bearbeitet:
FatFire
Lt. Commander
- Registriert
- Nov. 2010
- Beiträge
- 1.296
Ah, geht das wieder los. AMD ist am Ende...sie schreiben das vierte Quartal in Folge ohne Fremdzahlungen schwarze Zahlen, aber sie sind natürlich total am Ende. Der Bulldozer ist ein Riesenverlustgeschäft, ja gut, vielleicht werden aktuell alle verkauft die produziert werden, aber das muss trotzdem ein Riesenverlustgeschäft sein...redest Du nur, oder hörst Du ab und an auch mal rein?Pickebuh schrieb:Wenn das wirklich war wird mit diesem verhältnismäßigen kleinen Leistungssprung, ist AMD wohl bald am Ende.
Dazu noch die horrend hohen Preise, die wohl die derzeitigen Verluste des Bulldozers kompensieren sollen.
NVIDIA benötigt ja noch nicht einmal eine neue Serie. Sie können dann einfach einen Refresh der GTX580 herausbringen mit erhöhtem Takt, fertig und schon haben sie wieder die Spitze erreicht. <noch mehr Blech>
Was Du glaubst, interessiert relativ wenig. Fakten zählen und die widersprechen Dir in mehreren Tests. Nicht nur hier auf CB, sondern z.b. auch bei Tomshardware (da ist sogar die 6970 effizienter als die 560ti) und bei HT4U packt es die 560 ti nicht einmal die 6870 zu überholen. Leg die rosarote Brille mal ab und hör auf, hier ständig die Leute zu verarschen.KainerM schrieb:Wenn AMD könnte, dann hätten sie mit der HD6900 Serie gegen die GTX 580 gekontert, sie habens aber nicht geschafft - und zwar relativ deutlich. Wie Efizient eine Fermi sein kann zeigt ja auch die GTX 560 Ti; die braucht real etwa das gleiche wie eine HD6950 (auch wenn der CB-Test anders aussehen mag, ich bin mir sicher dass die HD6950 da gedrosselt hat - das sieht man am gewaltigen Unterschied zur HD6970 (80W)), und ist bei normalen Auflösungen "gleich schnell". AMD hat in der Realität keinen Vorsprung bei der Efizienz, und bei der Leistung hinken sie auch hinterher. Die bauen keinen Vorsprung aus, sondern einen Rückstand ab.
Gruß FatFire
Ähnliche Themen
- Antworten
- 48
- Aufrufe
- 9.163
- Antworten
- 45
- Aufrufe
- 6.915