News Radeon HD 8000 „Sea Islands“ erst im 2. Quartal 2013?

Stev010881 schrieb:
Falls du es noch nicht wusstest :

Die 7000er Serie ist so schwach das Nvidia mit einem performace Chip (eine Stufe unter High-End) kontern konnte. Aber ich hoffe auch das AMD möglichst bald etwas möglichst starkes präsentiert, dann wird Nvidia quasi gezwungen den Big-Kepler rauszubringen.
Pffff, Unsinn. Das hat Nvidia früher nie davon abgehalten den Dicken rauszuhängen nur um deutlich schneller als ATI/AMD zu sein. Wenn Big Kepler fertig gewesen wäre, dann hätten sie ihn veröffentlicht und für über €600 verkauft, denn sowas wie Big Kepler hätte AMD nie bringen können.

Big Kepler (Desktop) hätte also im März 2012 nie erscheinen können, da er bekanntlich nicht fertig war. Nvidias High-End Dekstop chip der 600er Serie ist nun mal der GK104 (GTX680). Aber im März 2013 soll es dann endlich so weit sein mit dem GK110... Mal schauen ob er die HD8970 schlagen kann. :p

Übrigens: Die HD7970 ist schneller als die GTX680. ;)
 
Zuletzt bearbeitet:
@dlux nein ist sie nicht. bei
älteren games aber bei neureren hat die kepler architektur mehr leistung. aber kann sich ja wieder ändern.
 
Erst im zweiten Quartal, toll, dann könnten sie ja in der Zeit einen Treiber bauen der bei 120Hz funktioniert(obwohl bis zur 12.6 funktionierte noch alles)...

...dann könnten sie einen Treiber bauen der wieder bei 120Hz funktioniert. Das Geflacker macht mich noch fertig.
 
Wundert mich den im Gegensatz zu letztem Jahr ist der Prozess ja mittlerweile ausgereift und es sollten genug Karten zu fertigen sein von AMD und damit auch ordentlich zu verkaufen.

Es sei den man hat Angst vor "big" Kepler und will noch an der Performance arbeiten.
 
White_Eagle schrieb:
Des wegen hast du ja bei kleiner Struktur eine höhere Ausbeute und nix exorbitant.
Und nö, die AMD HD 5870 kam um die 400,-€ (ab 380,- aufwärts, selbst nach über einem halben Jahr), deswegen hatte ich mir auch keine geholt!
Es ging um den 300€ Bereich so herum.
Die 5870 hatte eine UVP von 350€ und die 5850 230? Euro die ja nachträglich auf 250 oder 280 erhöht wurde? Weiß ich nicht mehr genau.
Ich meine mich noch zu erinnern, dass nach paar Wochen die Straßenpreise ein echt teures Niveau erreicht haben.
Jedenfalls ist die heutige Preissituation nichts anders, als damals.

Und zu der Ausbeute, doch exorbitant ;)
Die Aufrüstung einer Fab kostet immer mehr Geld, viele Milliarden und das wälzen die Auftragsfertiger natürlich auf ihre Kunden ab, durch höhere Waferpreise.
Früher war es egal, ob der Wafer ein Tausend Dollar mehr kostet, packe darauf ja auch entweder 40% mehr Chips drauf oder 40% leistungsfähigere, aber dadurch das das Aufrüsten immer teurer wird, steigen auch die Waferpreise immer mehr, sodass die erhöhte Anzahl an Chips nicht mehr den höheren Preis so kompensieren kann wie früher.
Übrigens hauen Nvidia und AMD ja leistungsfähigere Chips raus und shrinken nicht nur, die Ausbeute an Chips ist grob die gleiche, aber die Waferpreise deutlich höher, klar das man besonders zu Anfang ordentlich sein Produkt preisen muss.
 
Shaav schrieb:
jop, 20nm.
Wird Zeit, dass die Preise sinken. Es gab mal Zeiten da kostete die High-End-GPU 300€ und die dahinter knapp 230€. So lange das P/L-Verhältnis nicht stimmt, werde ich mir zumindest keine Graka+aktuelle Spiele kaufen :(

Eine 7950 kostet etwa 260€ dazu gibt es 3 Spiele (wennst beim Händler kaufst der mitmacht). Was ist daran jetzt ein schlechtes P/L?
Und vor Weihnachten senkt niemand die Preise, da steigen die immer. Kurz nach Weihnachten werden die wieder fallen, aber die aktuellen Preis (7800 / 7900) passen vollkommen.

Die Zeiten wo eine 5870 knapp 300€ kostete sind vorbei und das war eher die Ausnahme. Heute braucht das AMD nicht machen, da die Kunden sowie so kaufen.
 
Wo ist eine GTX680 bei neuen Spielen denn so viel schneller als eine 7970 (GHz/OC)?
Nvidia kann einfach besser Treiber optimieren. Immer dann, wenn AMD mal eine gescheite Optimierung für ein Spiel hinbekommt, sind sie mit einer 50 € günstigeren Karte mindestens genauso schnell wie das Nvidia-Pendant.
Die GTX680 hat ihre Vorzüge, aber bei der reinen Leistung würde ich die mal ganz und gar nicht ansiedeln, vor allem was die Zukunftssicherheit angeht.
PS: Zum Thema Leistungsaufnahme: Es kommt auch darauf an, mit welchem Tool/Spiel dies gemessen wird. Schaut sich auch mal jemand die von CB durchgeführten weiteren Messungen zur Leistungsaufnahme an? https://www.computerbase.de/2012-03/test-nvidia-geforce-gtx-680/17/ Hier verbraucht eine 7970 in BF3 weniger Strom als eine GTX680. Sieht mit neuen Treibern durch den Leistungsschub sicher auch anders aus, aber dennoch sollte man sich auch mal ein paar Details zu Gemüte führen, bevor man ein abschließendes Urteil fällt.
 
Zuletzt bearbeitet:
Stev010881 schrieb:
Falls du es noch nicht wusstest :

Die 7000er Serie ist so schwach das Nvidia mit einem performace Chip (eine Stufe unter High-End) kontern konnte. Aber ich hoffe auch das AMD möglichst bald etwas möglichst starkes präsentiert, dann wird Nvidia quasi gezwungen den Big-Kepler rauszubringen.

Es interessiert mich nicht was nVidia machen "könnte". Wenn sie es nicht tun macht es für den Consumer keinen Unterschied ob etwas besseres existiert oder nicht.
Auch AMD wird an der eigenen Struktur arbeiten und bisher kann auch niemand voraussagen ob der ach so tolle "Big Kepler" viel besser sein wird.
Wenn laut deiner Aussage nVidia sich in dieser Generation mit voller Absicht selbst limitiert hat dann werden sie dies auch in der nächsten Generation tun.
 
aktuell ist man gut aufgestellt und hat etwas vorsprung sodass es für amd keinen grund zur eile gibt. war eigentlich zu erwarten das die hd8000er serie erst in einem halben jahr kommt. nvidia wird so schnell auch nix neues bringen wenn man sieht wie lange sie gebraucht haben die 6er serie vollzählig und zahlenmäßig gut aufzustellen
 
Anwalt Dr.Gonzo schrieb:
Solche Verzögerungen gibt es doch eher bei einem neuem Fertigungsverfahren.
Bis Q1 2013 sollte der 28nm Prozess doch eher Routine sein.

Gibt es denn bei der Architektur so große Änderungen?
Sind es nicht diesmal bei AMD auch Weiterentwicklungen statt radikalen Neuentwicklungen?

Das Wort "unplanmäßig" scheint dir nicht geläufig zu sein, was?

Ja, mittlerweile ist 28nm im Grunde eher Routine, dennoch kann bei neuen GPUs immer irgendwas "unplanmäßig" schiefgehen und dann gibts eben Verzögerungen.
 
Da hätte man gleich noch paar bekannte Spekulationen mit in die News reinnehmen können:

Die Radeon HD 8870 (Oland XT: Die-Size: 270mm² (+27%)) soll bei 1050MHz (1100 MHz Turbo) aus 3,4 Milliarden Tranistoren (+21%) eine Leistungsfähigkeit von 3,94 TFLOPS (+70%) bei einfacher Genauigkeit zaubern. Das Ganze mit 9% weniger Stromverbrauch und 20% billiger.
 
dlux schrieb:
Pffff, Unsinn. Das hat Nvidia früher nie davon abgehalten den Dicken rauszuhängen nur um deutlich schneller als ATI/AMD zu sein. Wenn Big Kepler fertig gewesen wäre, dann hätten sie ihn veröffentlicht und für über €600 verkauft, denn sowas wie Big Kepler hätte AMD nie bringen können.

Big Kepler (Desktop) hätte also im März 2012 nie erscheinen können, da er bekanntlich nicht fertig war. Nvidias High-End Dekstop chip der 600er Serie ist nun mal der GK104 (GTX680). Aber im März 2013 soll es dann endlich so weit sein mit dem GK110... Mal schauen ob er die HD8970 schlagen kann. :p

Übrigens: Die HD7970 ist schneller als die GTX680. ;)

Alles Marteing. "Nvidias Midrange schlägt AMDs-High-End" hieß es groß. Der High-End-Chip kam nie. Tja das einzige was High-End war ist der Preis. Und fertig ist GK110 schon sehr lange, nur beabsichtigte man nie ihn 2012 zu launchen.

Und warum hätte AMD soetwas nie bringen können? Richtig es wäre zwar unüblich für AMD, aber sie zeigen jedes mal aufs neue, dass sie als erste in einen neuen Fertigungsprozess starten mit all den großen Problemen. Und dieses Mal sogar mit einem deutlich größeren Chip.

Chipgröße 294 mm² vs 365 mm²
Transistoren Grafikchip (Mio.) 3.540 vs 4.313
 
Yamagatschi schrieb:
Wie schon gesagt, haben teils High End Modelle 4 Stellig gekostet, also sind doch 300-400 Tacken nicht die Welt. Und was erwartet man denn, das die Preise um 60% sinken nach Release, naja ...
Eigentlich sollte DM nicht 1zu1 mit € gleichgesetzt werden. Vorrausgesetzt man glaubt kurz an die offiziellen 2% Inflation. :lol:

Das High-End Modell GTX 690 kostet 6 Monate nach Launch statt 1000€ noch 900€. Wie war das nochmal mit der Geforce 2, 1000DM? Lächerlich, richtiges High-End bedeutet heute 2x mal das Topmodell, sprich 2000€.
Von dem Standpunkt sind heute 500€ Mittelklasse.

FL3pS schrieb:
Wo ist eine GTX680 bei neuen Spielen denn so viel schneller als eine 7970 (GHz/OC)?
Korrigiert, OC vs nonOC ist und bleibt Müll.
Mir egal bei wo sie "so viel schneller ist", jedenfalls wird dadurch nicht das Gegenteil richtig. Noch ist die GTX 680 im CB Rating schneller, wenige Prozent, wer sich dafür interessiert nur zu.

Wenn du Beispiele suchst: https://www.computerbase.de/2012-11/test-far-cry-3/4/
Eine GTX 670 schlägt eine 7970 Ghz.
 
Stev010881 schrieb:
Die 7000er Serie ist so schwach das Nvidia mit einem performace Chip (eine Stufe unter High-End) kontern konnte.

Würde ich nicht sagen.

HD7970 GHz = 4096 GFlops SP, 1024 GFlops DP
GTX680 = ~3090 GFlops SP, 129 GFlops DP

Würde man die komplette Rohleistung der AMD Karten nutzen können, würde Nvidia aber sowas von abstinken xD. Und dabei ist die Nvidia auf Spiele Optimiert, was man an der OpenCL leistung sieht. Die AMD ist wiederrum mehr auf OpenCL Optimiert.
 
Die Rohleistung wird doch schon genutzt. Die 7970 GHz ist in einigen neueren Spielen ca. 25% schneller, was ganz gut zu dem Unterschied in der Rechenleistung passt. DP ist egal.
 
Unyu schrieb:
Korrigiert, OC vs nonOC ist und bleibt Müll.

Das stimmt, dennoch ist im Mittel eine HD7970 schneller als eine GTX-670 und eine HD7970Ghz schneller, als eine GTX-680, siehe Performancerating.
Ausnahmen bestätigen natürlich die Regel, wie in FC2
 
Eine 7970 verbraucht auch erheblich mehr Strom als die GTX670. Daher sollte die Karte auch schneller sein.
Ansonsten nehmen sich beide kaum etwas. Die 7970 ist minimal schneller und kostet hier in Deutschland 10% mehr gegenüber dem Referenzdesign der GTX670.
 
Tja das war halt zu 6000er/ 500er Zeiten genau umgekehrt. Da hat die GTX 580 mehr Strom verbraucht, als die die 6970, war aber auch schneller und niemand hat sich beschwehrt. Jetzt macht es AMD umgekehrt und dann kommen wieder so Aussagen. :freak:

Wenn Nvidia da hätte nachlegen können, dann hätten sie das getan. Meiner Meinung nach wurde mit der 600er Reihe schon das Optimum was sie zu der Zeit fertig hatten, released. Macht doch jeder so. Außerdem preist Nvidia seit Jahren immer schon so seine Produkte an als Ultra Ultra Super Duper High Performance Best Ever Chip und trotzdem kommt jedesmal von AMD etwas vergleichbares um die Ecke. Is einfach deren Marketing und scheint ja zu klappen wie man hier bei einigen sieht. ;)

Was Nvidia dann aber wirklich meiner Meinung nach besser macht, sind die Treiber. Ich hab immer wieder mit der 6970 mal hier Probleme mal da, dann probiert man andere Treiber, schon gehts irgendwie und ein Kollege der haut einfach die Nvidia Treiber drauf und die Spiele laufen. Ich komm halt langsam aus dem Alter raus, wo ich nach dem Spielekauf experimentieren möchte, deswegen bin ich auch schon stark am überlegen das Lager zu wechseln bei der nächsten Generation.
 
Nureinnickname! schrieb:
Würde man die komplette Rohleistung der AMD Karten nutzen können,
Hätte, hätte Fahrradkette ;)

Es wird schon seinen Grund haben, warum nV im HPC und Profikartenmarkt so präsent ist im Vergleich zu AMD.
 
Vivster schrieb:
Es interessiert mich nicht was nVidia machen "könnte".

Das sollte es aber, denn das Zusammenspiel beider Firmen bestimmt den Markt (den Preis und die Leistung). AMD bräuchte in der 8000er Serie z.B. nur eine geringe Mehrleistung um sich von der GTX 680 abzusetzen, das wiederum macht mir Angst das Nvidia ebenfalls eine Karte rausbringt die nur minimal schneller ist als die 8000er (einen GK114 z.B.) und damit die High-End Klientel wieder einmal betrügt. So verlangsamt sich gezielt der Anstieg der Leistung bei kommenden Produkten.

AMD und vor allem Nvidia sind nicht darauf bedacht dem Kunden etwas gutes zu tun sondern sich selber (Geld verdienen) und das mit möglichst geringem Aufwand. Bestes Beispiel: Den GK104 performance Chip als High-End zu verkaufen.

Nvidia kommt mir beinahe vor wie Apple, beide Firmen muß man durch leistungsfähigere Konkurrenzprodukte regelrecht zwingen neue Produktgenerationen rauszubringen. Gäbe es keine Konkurrenz, würde sich 10 Jahre nichts ändern und der Preis bliebe immer oben. Deswegen ärgert es mich das die 8000er erst im 2. Quartal 2013 erscheinen soll, denn Nvidia wird garantiert abwarten und sehen was AMD macht und dann mit dem geringsten Aufwand reagieren.
 
Zuletzt bearbeitet:
Zurück
Oben