News Weitere Bilder, Informationen und Preise zur HD 6800

wenn der Furmark Screen echt ist ist das aber ein eher ernüchterndes Ergebniss. Da schafft meine GTX 460 768MB (die von Palit, mit dem "schechten" Kühler) die gleichen Frameraten, und auch die Temperatur ist bei mir kaum höher, trotz miesem Palitkühler. Wenn das überhaupt 1024*768 ist, wenn es 800*600 ist, ist die GTX 460 um eine Ecke schneller.

(ich
 
Zuletzt bearbeitet:
Was meint ihr bezüglich der Preiskurven.Sollte man beim Launch direkt zuschlagen oder warten ?

Das ist die 100.000 Lire Frage - Mir scheint es, als ob AMD auch das Problem von ATI übernommen hat, dass einfach zu wenig Chips da sind. Die Ankündigung das mehrere 100.000 Karten bereit liegen ist zwar mehr als zur Einführung der 58xx Karten, aber wir warten ja jetzt auf die Mittelklasse und nicht die High-End Karten!

Mir schwarnt furchtbares - was dann heissen würde, einige Karten zum Start, dann ausverkauft und höhere Preise! - Immer vorausgesetzt die Serie erfüllt die Erwartungen!
In diesem Zusammenhang wird es dann auch verständlich, warum nicht wie üblich die High-End Karten Cayman zum Start angetreten sind - vermutlich sind da noch weniger am Start und man kann erstmal einige Interessenten der Cayman an die Mittelklasse Barts abschieben! Einige werden die Karte nur des Namens wegen kaufen, andere weil sie halt immer das neueste haben wollen - und eine weitere Gruppe wird einfach nicht noch länger warten wollen!

Aber na ja, alles Spekulatius, bald wissen wir genaues!

Was meint ihr wird ne 6970 kosten ?
Den Folien nach (Bild 20 in der Strecke)
6950 ~300 Euro
6970 ~400 Euro
natürlich geschätzt, aber günstig werden die nicht! Bleibt halt noch abzuwarten ob es im Preis- Leistungsverhältnis passt!?!
 
Furmark hat so gut wie keine Aussagekraft , ich belaste meine CPU etwas zu Stark schon 10 FPS Kurioserweise weg.. Vielleicht wurde die karte nur mit ner Single CPu oder Dual CPu betrieben :lol:
 
Irgendwie hatte ich mehr von der HD6870 erwartet nur etwas schneller als eine HD 5850 ist für mich kein kauf Grund.
 
@Heduk:

Egal, was die Karte kostet? Du weisst, die Nachfolger der HD58xx kommen erst im November.
 
CashWoody schrieb:
Glaubt ihr, die 6000er Karten haben die selben Kühlerlöcher wie die Vorgänger, sodass der Musashi z.B. wieder draufpasst?


Ja, denn laut einer AMD Folie sind die Neuen Absolut Pinkompatibel zu den alten.
die Hersteller können also die Selben PCBs weiter verwenden.
Sie Kaufen also statt dem HD5850 Chip nun HD6870 Chips ein und fertig sind die Neuen karten.

Das wird den Boardpartnern sehr gut gefallen.
 
Also für den Preis erwarte ich schon mehr Leistung. Oder sie korrigieren den Preis nochmal, dann würde es auch passen.
 
Jetzt steht eh so langsam ein Wechsel bei der Grafikkarte an.
Hoffe es gibt möglichst bald eine Dual GPU HD6xxx.
Dann kann meine gute alte 3870x2 ihren Dienst im Zweitrechner antreten!

Hoffe nicht wieder so lang wie die 5970, sonst muss au noch ein neues Gehäuse her :(
 
find`s gut dass der Stromverbrauch im IDLE nochmal gesenkt wurde,
freue mich schon auf ein Test)
 
gpanda schrieb:
Also für den Preis erwarte ich schon mehr Leistung. Oder sie korrigieren den Preis nochmal, dann würde es auch passen.[/QUOTE

Tja was du erwartest wird AMD so ziemlich egal sein denn die brauchen Umsatz bzw. Gewinn und die weinen dir sicher keine Träne nach wenn du sie nicht kaufst ;)

Also ich find die Preise sind ok denn wenn man den Markt so betrachtet hat NV nicht wirklich was gleichwertiges und was besseres kostet auch mal ein bisschen mehr :o
 
.Eine 6870 wird nie so teuer wie die 5870 respektive ne 5870 nie so billig wie ne 6870
Gibst du mir 100 Euro wenn mindestens ein Händler zu einem einzigen Zeitpunkt die 6870 mindestens gleich teuer anbietet wie die 5870?

Ein sehr unglücklicher Einstand für AMD: Die ersten Karten, die unter eigenem Namen verkauft werden, scheinen (im Gegensatz zu den Vorgängern) in der Internet-Community nicht besonders gut anzukommen. Das Namenswirwarr missfällt, Performance geringer als beim Vorgänger. Jetzt muss es wohl der Preis tun.

find`s gut dass der Stromverbrauch im IDLE nochmal gesenkt wurde
Abwarten! Nominell haben die 5850/ 5870 mehr verbraucht als real gemessen wurde. Möglich, dass sich da nicht viel getan hat.
 
pilzbefall schrieb:
@Milchwagen
extra für dich http://geizhals.at/deutschland/?phist=516970&age=365
Die Marktlogik ist was feines, denn wenn niemand mehr die alten Karten kauft, fallen sie umso mehr weiterhin im Preis.

Die fallenden Preise in letzter Zeit liegen vor allem am erstarkenden €, an der steigenden Verfügbarkeit bzw. wenn man so will "Überproduktion" und natürlich an der Konkurrenz. Das Erscheinen der HD6k hat damit so gut wie nix zu tun. Höchstens seitens NVIDIA, die noch schnell ein paar Grakas verkloppen wollen, bevor sie gar nix mehr dafür bekommen...

Karol_ schrieb:
Welchen Fehler? Weder die Radeon 3000, 4000 noch die 5000 Serie haben jemals x900er Modelle geführt! In den letzten drei Generationen waren die jeweils stärksten Karten immer als x800er Serie geführt während Dual-GPU-Karten zusätzlich noch als X2 bezeichnet wurden.

Der Fehler war die 58x0 nicht als 59x0 zu vermarkten (und die dual GPU dann von mir aus als X2). 3870~200€, 4870~200€ Startpreis, die 5870 dann 300€, lange deutlich teurer.

Wenn also die AMD Logik ist, die Karten nach Preisklassen zu sortieren (x8x0 = 200€, x9x0 >300€, 100 < X7x0 <200€, so oder so ähnlich, wie gesagt die 58x0 war ne Ausnahme) sollte man das akzeptieren können.

IMMERHIN heißen die Grakas ja auch NICHT MEHR ATI Radeon, sondern AMD Radeon... AMD könnte die 68x0 als 62x0 bringen...dürfte sich auch keiner beschweren.

Tom2e schrieb:
Na Hofentlich nicht! Es gibt so viele games da reicht 1 GB hinten und vorne nicht mehr.

Aber wäre auch egal dann kaufe ich mir erstmal eine 460 GTX mit 2gb relativ günstig und ne Neue Graka muss man sowieso min 1X mal an nen Pc neu aufrüsten. In so 2 jahren wird 2gb Standard sein!

Zu den 1GB: Das mag bei den alten NVIDIAs so gewesen sein, das die ein schlechtes Speichermanagement hatten (Fermi nicht mehr AFAIK), aber bei ATI langt 1GB locker, ist ja nicht so das man kein Spiel mehr starten könnte, geschweige denn dass zu wenig VRAM der Hautpgrund für schlechte Performance ist.

Solange man auf AA verzichtet, würde ich sogar so weit gehen, das heutzutage 256MB immer noch ausreichend sind, schließlich müssen die ganzen Konsolenports mit weniger(?) auskommen.

Zum Aufrüsten: Ich habe von einer Geforce 3 mehr oder weniger auf ne 7800GT aufgerüstet, dann auf ne 3870. Seitdem warte ich auf 28nm.

Kann nicht behaupten, dass man 1x im Jahr ne neue Graka bräuchte, läuft alles wunderbar, zogge allerdings auch nicht mehr die neuesten Games und selbst wenn weiß ich noch wozu die ganzen Grafikregler gut sind ;)

Jenergy schrieb:
"starker" Euro... Das meinst du nicht ernst oder? Sowohl der Dollar als auch der Euro sind zurzeit äusserst schwach :rolleyes:

ähhhh FAIL? € wieder so stark wie lange nicht....

kisser schrieb:
Marketing ist schon was geiles, AMD vergleicht die Die Größe der teildeaktivierten 5850 (334 mm²) mit der Die Größe der (vermutlich) nicht teildeaktivierten 6870 (255 mm²).
So kann man natürlich alles schönrechnen. Am besten hätte AMD die 5830 zum Vergleich herangezogen, da könnte man dann mit noch mehr Performance pro mm² protzen.

Eine 5830 hat den selben Chip drinne wie eine 5850 oder 5870-->Cypress. Die sind alle gleich groß, ich hoffe ich missverstehe deine Aussage nicht. :cool_alt:

Die 6870 ist mit Sicherheit nicht teildeaktiviert, falsches Camp ;)

Seppuku schrieb:
@ Sascha L

Ich kann beim besten Willen in deinem Beitrag keine Erklärung für die unlogische Nomenklatur finden...

Siehe oben. Kannst dir auch nochmal die Folie hier anschauen, vielleicht verstehst dus dann ;)

https://pics.computerbase.de/3/1/2/7/4/20-1080.465612252.jpg

Glaub mir mir fällt es auch schwer, aber wenn AMD das unbedingt so machen will, müssen sies halt irgendwann durchziehen. Was liegt da näher als nach der Entsorgung von ATI? Mir erschließt sich die Einteilung nach dem Preis allerdings auch nicht, weil Geld ja "dynamisch" ist. Sprich es verliert an Wert oder wird auch wertvoller.

Sinnvoller wäre es IMO gewesen, die Single-GPU Performance einfach bei x8xx zu belassen, die Dual-Karten bei X9xx und alles andere entsprechend nach unten. Will man aber nicht-->so what??? So schlimm wie bei NVIDIA (G92 in 13 Grakas verbaut über verschiedene Generationen hinweg) isses lange nicht...

Mit LLano hat das IMO auch nix zu tun, denn die werden wohl ganz anders bezeichnet werden...

KainerM schrieb:
Und bzgl. Taktraten und Chipleistung: Als der GF104 kam, war AMD schon zu weit mit Barts um noch grundlegende Änderungen im Design zu machen. Das das Ding jetzt doch so gut ist macht ihnen das Leben schwer. Ansonsten wäre Barts ziemlich sicher eine minimal schnellere HD5770 geworden, mit Taktraten im Bereich der HD6850 jetzt.

Dafür hätte man die Die-Size aber nicht dermaßen erhöhen müssen (ca. 50% AFAIK).

An dem Refresh arbeitet AMD schon seit mindestens 2 Jahren --> Tapeout von Barts war vor einem Jahr!! (Tapeout = fertig entwickelten Chip zur Fabrik schicken zur ersten Fertigung)

Tomahawk schrieb:
Das Namenswirwarr missfällt, Performance geringer als beim Vorgänger. Jetzt muss es wohl der Preis tun.

Die 6870 ist aber quasi der Nachfolger der 5770 ;)

Nachfolger vom Cypress wird der Cayman, der wieder ne ordentliche Schippe drauf legen wird ;)
 
KAOZNAKE schrieb:
Solange man auf AA verzichtet, würde ich sogar so weit gehen, das heutzutage 256MB immer noch ausreichend sind, schließlich müssen die ganzen Konsolenports mit weniger(?) auskommen.

Ich weiß was du meinst, und nach allen mir vorliegenden Informationen erscheinen mir 1GB VRAM im Referenzdesign auch weiterhin als ausreichend, aber 256MB wäre doch einwenig übertrieben.
Im Gegensatz zu 1GB wo es nur ein Handvoll Spiele sind, die ohne 2560x1600, und ohne Modifikation, über 1GB kommen (bzw. wo er bremst und zwischen spielbar und unspielbar unterscheidet), dürften mehrere dutzend Games selbst ohne AA nicht mehr mit 256MB bei Auflösungen bis Full HD auskommen.
 
Die 6870 ist aber quasi der Nachfolger der 5770
Sehe ich nicht so. Wenn dem so wäre, dann wäre der Nachfolger verdammt teuer geworden. Die 5770 hatte zu Beginn eine UVP von 159 USD, die 6870 239 USD.
20-1080.465612252.jpg


Der Pfeil geht eindeutig von der 58xx-Serie :)
 
Tomahawk schrieb:
Sehe ich nicht so. Wenn dem so wäre, dann wäre der Nachfolger verdammt teuer geworden. Die 5770 hatte zu Beginn eine UVP von 159 USD, die 6870 239 USD.
20-1080.465612252.jpg


Der Pfeil geht eindeutig von der 58xx-Serie :)

Du postest hier diese Abbildung und verstehst es nichtmal selbst. Barts ist auf Höhe der 4800 Series und über der 5700-Series. Cayman ist auf Höhe der 5800 und drüber. Das zeigt doch ein-eindeutig, dass AMD eine Leistungsklasse (bzw. zwei) zwischen das alte Schema der 5800-Series platziert hat.
 
milamber! schrieb:
Im Gegensatz zu 1GB wo es nur ein Handvoll Spiele sind, die ohne 2560x1600, und ohne Modifikation, über 1GB kommen (bzw. wo er bremst und zwischen spielbar und unspielbar unterscheidet), dürften mehrere dutzend Games selbst ohne AA nicht mehr mit 256MB bei Auflösungen bis Full HD auskommen.

Tja, kommt halt wie immer drauf an was man so spielt und was die sonstige Hardware so sagt. Ich selber hab z.B. kein FullHD und was sind schon ein paar dutzend Spiele gegen die unzahl, die jährlich rauskommen?

Selbst Mafia 2 kann man (wohl) ziemlich gut mit ner 3870 spielen (da empfohlen).

Ich würde mir allerdings auch keine Karte mehr mit weniger als 1GB RAM holen, denn ich glaube an die Macht des doppelten :lol:

Doppelte Performance, doppelter VRAM, OK halber Preis ;)

@Tomahawk:

So gesehen haste recht, aber im Prinzip sieht man ja das die 68x0 nirgendswo richtig reinpasst. Das liegt einfach daran, das zwischen der 5770 und der 5870 so ein Riesenperformance-Loch lag. Wenn man auf Cypress 30% draufgepackt hätte und auf Juniper auch 30%, wär das auch nicht wirklich besser geworden, insofern kommt jetzt einfach was dazwischen ;)
 
Du postest hier diese Abbildung und verstehst es nichtmal selbst. Barts ist auf Höhe der 4800 Series und über der 5700-Series. Cayman ist auf Höhe der 5800 und drüber. Das zeigt doch ein-eindeutig, dass AMD eine Leistungsklasse (bzw. zwei) zwischen das alte Schema der 5800-Series platziert hat.
Nein, du irrst. Die Ordinate bezeichnet den Preis, nicht die Leistung. Sie besagt, dass Barts günstiger als Cypress sein wird. Aussagen über die Leistung werden (wie du fälschlicherweise annimmst) nicht getroffen.

Vielleicht noch eine Ergänzung, damit ich sicher sein kann, dass du es verstehst:
Die HD 4800er Serie, die in der Grafik über den Juniper-Chips liegen, waren nicht gänzlich langsamer, aber (jeweils auf die Launch-Preis bezogen) günstiger.
 
Zuletzt bearbeitet:
Ich kann aber auch die nicht so versierten Leser verstehen, die anprangern, dass die HD6870 vermeindlich langsamer ist als eine HD5870; sprich neue Version langsamer als Vorgänger (rein auf den Produktnamen bezogen). Das muss sich AMD ankreiden lassen. Sie hätten, um diesen Diskussionen aus dem Weg zu gehen, gleich einen neuen Namen nehmen sollen, also ein andere Schema - aber das werden die auch alles intern durchgesprochen haben
Das ginge auch ganz einfach:
HD 6870 -> 6850
HD 6850 -> 6830
Und wollen sie noch eine kleinere nach schieben -> HD 6810; 6820; 6825 etc. Aber wie du schon sagst auf keinen Fall dürfen sie mit einer 6870 langsamer werden als eine HD 5870, das ist Marketing Fail und würde AMDs guten Ruf für übersichtliche und logische Namen ruinieren. Aber ich bin Optimist, ich glaub immer noch dran das die Karten schneller werden als vermutet(glaub immer noch an die 4D Shader:rolleyes:), auch wenn es doch nur die alten 5D Shader mit dem 4.(!!!!) Refresh werden.
 
Zuletzt bearbeitet:
Tomahawk schrieb:
Der Pfeil geht eindeutig von der 58xx-Serie :)
Ganz oben steht Produktstrategie. Was immer AMD darunter versteht, technologisch oder wirtschaftlich. Man sollte Barts vielmehr als Lösung zwischen Juniper und Cayman verstehen, der Cypress wirtschaftlich ersetzt. Wenn man so will, gab es eigentlich keinen richtigen technologischen Vorgänger von Barts. Wer einen technologischen Nachfolger von Cypress sucht, muss auf Cayman warten.
 
Zurück
Oben