News AMDs neue Radeon HD 6900 setzen auf „4D-Shader“

Joern91 schrieb:
Die 6900er Serie wird wohl eher was für Leute mit großem Geldbeutel. :D

Die Grösse des Geldbeutels ist doch relativ - ICH will eine schnelle Karte und mir is dabei furzegal wieviel Strom die frisst.
Und im Gegensatz von vielen hier zahl ich den Strom selber..hahaha! :evillol:
 
Naja... was Wunder, aus der News geht ja auch nicht klar hervor, ob es die 6970 auch als 6970 AGP geben wird LOL
:schluck:

Die 6900er Serie wird wohl eher was für Leute mit großem Geldbeutel.
Also nix für den typischen ehemaligen ATI Fan, eher was für die NV Fans die solche Preise gewohnt sind, sollen wechseln. So wies ausschaut wird das die Karte das auch schaffen. Überzeugende Vorstellung bis jetzt. 2 meiner must have Punkte wurden schon mal erfüllt.
1. Effiziente 4D Shader
2. Ausreichend Vram im Verhältnis zur Rohleistung.
im ref werden aber unter 1920x1080 reizt keines meiner spiele die 1Gb ram aus
Da ist es wohl Zeit für einen neuen Monitor, anders kannst du das Monster hier gar nicht ganz "ausfahren". Unter 28" ist auch irgend wie unwürdig für den Cayman XT. Geld kann wohl kein Argument sein. Ihr werdet doch wohl nicht so ein Teil mit Standartkühler laufen lassen? Rechnet also nochmal 50-100€ drauf um die Abwärme zu bendigen...
Auf dem papier hat die 6870 auch toll ausgesehen und was ist sie geworden ein krüppel aller erster Sane.
Jet-lag von der Zeitumstellung? Grad auf den Folien war doch die HD 6800 weit hinter HD 5800 und keiner dachte das die auch nur annähernd ran kommt. Und seit wann sind die HD 6800 Krüppel? Du meinst bestimmt die HD 2900? Insofern hast du recht, eine neue Architektur war schon immer eine 50/50 Chance auf einen Flop oder eine Top Karte. Cayman könnte genau so floppen wie eine Thermi, die veranschlagten 300Watt TDP sind schon mal eher schlechte Zeichen...

ICH will eine schnelle Karte und mir is dabei furzegal wieviel Strom die frisst.
Aber es ist dir nicht egal wie effizient die Karte arbeitet, sonst bekommst du eine 2. GTX 480 mit AMD Logo die zwar viel Strom schluckt aber langsam arbeitet.
 
Kasmopaya schrieb:
Grad auf den Folien war doch die HD 6800 weit hinter HD 5800 und keiner dachte das die auch nur annähernd ran kommt.


Mal etwas Mathematik für Anfänger:

HD6870: 1120 Shader * 900 MHz Takt = ?
HD5850: 1440 Shader * 725 MHZ Takt = ?

Ausrechnen und feststellen, daß beide Karten in Theorie und Praxis gleich schnell sind.
 
Gleich schnell? Da gibts doch gar nix zum ausrechnen AMD gibt doch die Flops an.
2.016 GFLOPs 1.488 GFLOPs 2.090 GFLOPs 2.720 GFLOPs
https://www.computerbase.de/2010-10...nd-hd-6850-test/2/#abschnitt_technische_daten
Also nochmal, kommt eine 2GFlop Karte an eine 2,7GFlop Karte ran. Nein? Doch... Das hat vorher fast keiner gedacht das die so schnell werden mit so wenig Flops und Shader. Ich habs mir aber gedacht wegen dem Namen. Irgend wo hat sich AMD ja auch was dabei gedacht.
 
Zuletzt bearbeitet:
suessi22 schrieb:
Cool 2 GB Standard!
Hoffen wir auf nicht zu hohe Leistunsaufnahme...
MfG
Suessi22

Und diese Flimmergeschichte - kotzt einen ehrlich gesagt an - das das jetzt so gehypt wird.
Danke CB :freak:


unterschreibe ich voll und ganz :(
 
Na da muss die Leistung aber schon ordentlich steigen um den Anstieg der Leistungsaufnahme zu rechtgfertigen. Ich persönlich weiß noch nicht ob ich davon nun angetan sein soll oder eben nicht, den es steigt ja nicht nur der Stromhunger, auch Temp. und Lautstärke werden entsprechend steigen.
Die Rohdaten höhren sich natürlich bis auf die Leistungsaufnahme schon sehr nett an, bleibt zu hoffen das die Performance dann auch entsprechend stimmt und vorallem auch die Bildquali nicht der der 68xx entspricht.
Den Kunden wirds auf jeden Fall freuen wenn es Nvidia schafft eine 580 zu veröffentlichen die hält was man verspricht und nicht das gleiche passiert wie bei Thermi. Ich hab da ja bekanntlich so meine zweifel, schlicht weil die Zeit einfach doch sehr knapp war für Nvidia!

Ich hoffe darauf das wir einen guten Zweikampf sehen und AMD vorallem an der Bildquli was macht, weil so bei den 68xx ist das für mich unbefriedigend und ein nicht unmerklicher Grund eben doch Nvidia zu kaufen, auch wenn ich gerne AMD unterstützen würde! Aber nachdem ich das Ganze nun mal real sehen durfte und ich persönlich die Bildquli Unterschiede schon deutlich sehen kann hoffe ich da sehr auf eine Besserung bei Cayman!
Mfg
 
kisser schrieb:
Natürlich NEIN!
Die 6870 ist so schnell wie die 5850, also 2 TFlop gegen 2 TFlop.
Was ist daran überraschend?
Also ich sehe die Karte in hohen Settings (womit man das Teil auch befeuern sollte) eher näher an der HD5870 als an der HD5850.
Und das ist wie ich finde für eine Karte die weniger Flops als eine HD5850 hat ziemlich gut. ;)
 
Na da muss die Leistung aber schon ordentlich steigen um den Anstieg der Leistungsaufnahme zu rechtgfertigen. Ich persönlich weiß noch nicht ob ich davon nun angetan sein soll oder eben nicht, den es steigt ja nicht nur der Stromhunger, auch Temp. und Lautstärke werden entsprechend steigen.
Weis gar nicht ob ihr das überhaupt schon mitbekommen habt, aber die GTX 480 wurde quasi fast ent-floppt vom Stromverbrauch her. NV scheint extrem gut mit der Temperatur zu skalieren. In der PCGH 11/2010 haben sie ein paar High End Kühler und die GTX 480 getestet, mit dem Resultat das bei geringer Temp(GPU/Spannungswandler) der Stromverbrauch drastisch sinkt. Fast schon auf HD 5870 Niveau.

Normale GTX 480 Race Driver Grid: 240Watt
Calibre bzw. Spitfire Kühlung ca.: 170Watt (Idle auch weniger mit annehmbaren 33Watt!)
HD 5870: 160Watt

Mit Wasserkühlung würde die Lastaufnahme noch weiter sinken. Jetzt ist es nur noch interessant wie gut Cayman XT mit Temperaturen skaliert. Sagen wir mal er verbraucht 250Watt unter Grid. Mit sehr guten Temps kann man den vielleicht auch auf ca. 150Watt drücken, wer weis?:D Und schon sind die Karten gar nicht mehr so schlecht wie manche jetzt grad denken. Eine GTX 480 mit 169Watt ist quasi auf HD 5870 2GB Niveau. Wenn mir das vorher eine gesagt hätte, hätte ich das ohne Beweise niemals ernst genommen. Der einzige Nachteil an der Calibre Kühlung war die extreme Lautstärke, aber dafür gibts ja Spitfire und Wasserkühlungen...

Ich mein eine neue Kühlung braucht ihr sowieso, laut wird das ganze garantiert ob GTX 480/580 oder 6970 das ist schon mal sicher...

Aber nachdem ich das Ganze nun mal real sehen durfte und ich persönlich die Bildquli Unterschiede schon deutlich sehen kann hoffe ich da sehr auf eine Besserung bei Cayman!
Es ist zwar extrem unverschämt von AMD das behobene AF Banding der HD 5 als Feature zu verkaufen und die Standard Quali absinken zu lassen, aber der CB Fall zeigt Worst Case in HL2. In den meisten Spielen wirst du nicht viel sehen. Erst recht nicht wenn du nicht viele Shooter spielst so wie ich. Und bei HL2 gibts ja immer noch das von AMD eingeführte 8x SGSSAA da ist dann Schluss mit lustig und das AF passt auch. Die HD 6970 bringt ja genug Rohleistung und Vram mit für SGSSAA, also von dem her nicht ganz so tragisch beim Cayman.

Die 6870 ist so schnell wie die 5850, also 2 TFlop gegen 2 TFlop.
https://www.computerbase.de/2010-10/amd-radeon-hd-6870-und-hd-6850-test/14/#abschnitt_crysis_warhead
?gleich schnell?
 
Zuletzt bearbeitet:
Meine Güte, könnt ihr eig alle nicht lesen? :rolleyes:
"Die schlechte Bildquali der HD6800"....die Bildquali ist die selbe, sogar noch einen Tick besser als bei der HD5K. Nur weil die Qualitätseinstellungen einen neuen, aus meiner Sicht logischeren, Aufbau bekommen haben, schreien alle rum wie schlecht die Bildqualität der HD6800 doch ist und das AMD jetzt keine Chance mehr hat gegen nVidia...da sieht man wie sie alle immer nur alles nachschreien was irgendwo steht....bzw im CB-Artikel stand es ja gar nicht.

Also kurz: Die BQ ist mit der HD6K nicht schlechter geworden, sondern besser. Nur die Einstellungen haben sich verändert.


TT: Klingt gut für mich. 2GB VRAM hören sich ebenso gut an wie 4D Shader. Auch die Geometrieleistung hat sich wohl extrem verbessert, sodass Cayman wohl alle (Hardware-)Vorteile vom Fermi überflügelt.
Wenn die Treiber, vor allem Sachen wie SSAA unter allen APIs, mitspielen könnte er echt gut werden.
 
Ich verstehe auch nicht, warum man die ganze Zeit auf die Bildqualität der HD6000er herumreitet.

Wenn ich sehe, wie viele Leute in ihrer Signatur ein MultiGPU-System besitzen und mit Microruckler keine Probleme haben und wie viele Leute eine Aversion gegen V-Sync besitzen und denen die daraus resultierenden Tearings nichts anhaben und Leute sogar beides miteinander vereinen und Meinen, das alles doch super toll sei.

So sollte doch der Umstand, der Veränderung des Anistropischen-Filterns bei der HD6000er, nun auch nicht mehr so stark ins Gewicht fallen. ;)
 
Zuletzt bearbeitet:
Nett!

Mal sehen, ob wir in der nächsten Woche die ersten inoffiziellen Tests sehen werden oder ob es noch etwas länger dauert?
Da Thermi 2 ja wohl so in ca. 2 Wochen erwartet wird, denke ich, dass die offizielle Vorstellung auch um diese Zeit sein wird!?!

Aber wer weiss.......
 
also von der GTX 580 erwarte ich mal nix dolles. wie mal so liest wird die GTX 580 mal grade das, was die GTX 480 eigentlich mal sein sollte, ansonsten nix neues.

im prinzip ist der name GTX 580 auch wieder voll übertrieben.. GTX 485 hatte bei weitem gereicht. aber nvidia mogelt malwieder ne neue generation dazu.

während die 69x0 wohl wirklich was bahnbrechendes wird. ich freu mich drauf.

ach ja, und dieses komische seltsame flamen mancher seiten in bezug auf die bq bei amd.... hmm.. sowas nennt man virales marketing, was nvidia da betreibt und die seiten spielen freudig mit....

sowas von hochgebauschtem blödsinn liest man echt selten, vollig amüsant.
 
Kasmopaya schrieb:
Es ist zwar extrem unverschämt von AMD das behobene AF Banding der HD 5 als Feature zu verkaufen und die Standard Quali absinken zu lassen, aber der CB Fall zeigt Worst Case in HL2.
Es wurde nicht nur das Standard AF durch neue Treiber verschlechtert, was CB durch HQ zu kompensieren versucht. Nach vertrauenswürdigen Aussagen ist sogar die maximal erreichbare Qualität gesunken.

Schlimm wie das heruntergespielt wird, als ob man für zig Hundert € nichts erwarten darf, das etliche Jahre alte Hardware schon kann.
Die Leute, die dagegen sind, hätten keinerlei Nachteile durch hochqualitätives AF, sie könnten 1xAF einstellen und hätten auch so ihre vielen FPS.

Von dem her interessiert Cayman keine echten High-End Kunden, die auf Leistung aus sind, den eine Steigerung halte ich für ausgeschlossen. Im Bestfall bleibts auf dem gesunkenen heutigen Niveau, im schlimmsten Fall wird wieder mit gesteigerter BQ geworben, wo gleichzeitig die BQ gesenkt wird.
Schade um Cayman, sicherlich ein sehr interessantes Stück Hardware, wenn die Softwareseitige Beschneidung nicht wäre.
 
omg... unyu.."für zig hundert euro" haste probleme= ne 6850 kostet 149€.. sind das zig hunderte euro?

komischer mensch ist er.

oder weißt du schon expliziet über cayman bescheid? kleiner flameboy? :D
 
Schlimm wie das heruntergespielt wird, als ob man für zig Hundert € nichts erwarten darf, das etliche Jahre alte Hardware schon kann.
Sehr gutes Argument, ich hoffe ja immer noch das Cayman bei der AF Quali einen Hotfix bekommt den 5.? Der dann nochmal zulegt. Aber das wirklich lustige an der Geschichte, also das Banding bemerke ich schon und stört mich auch sobald ein Spiel diese AF Wände vor sich her schiebt, aber HL2 hab ich mit einer 5900 FX gespielt, kann mich jetzt nicht erinnern das es irgend was am AF zum meckern gab. Damals noch ohne AA/AF gezockt, Kantenglättung hätte ich schon gerne gehabt, aber anscheinend bin ich da auch nicht so der Grafikfanatiker der da so genau drauf achtet. Solange es kein Banding gibt müsste ich zufrieden sein mit dem AF. Werd das noch alles testen, aber es wird zur Zeit zu heiß gekocht. Der Artikel auf CB dient ja dazu AMD aufhorchen zu lassen und die Standardqualität wieder zu erhöhen, nicht unbedingt HQ-AF von NV zu erreichen. Ich mein der extremste AF Fanatiker;)(Raff von PCGH) schlechthin hält es schon Monate mit einer HD 5870 aus. So schlimm kann das ganze mit dem neuen AF der HD 6 gar nicht sein. :rolleyes:
 
Zuletzt bearbeitet:
annabla schrieb:
also von der GTX 580 erwarte ich mal nix dolles. wie mal so liest wird die GTX 580 mal grade das, was die GTX 480 eigentlich mal sein sollte, ansonsten nix neues.

im prinzip ist der name GTX 580 auch wieder voll übertrieben.. GTX 485 hatte bei weitem gereicht. aber nvidia mogelt malwieder ne neue generation dazu.

während die 69x0 wohl wirklich was bahnbrechendes wird. ich freu mich drauf.

Ich glaube das nvidia selbst über das mehr bei der beschnittene gt104 chip überracht waren, ich kann mir gut vorstellen das sie diese neu gewonne Wissen sich nun in den gtx5xx karten auch wiederspiegelt.
Was geht beweisst ja selbst die gigabyte gtx470soc das man selbst Karten mit einem gt100 noch optimieren kann.
 
Ach ich warte einfach drauf bis AMD zwei 6970 die´s miteinnader verschmolzen hat 1 riesenchip mit 4 miliarden transistoren, einfach mal so, damit ich mir keine DUAL karte kaufen muss, einfach eine mit einem fetten chip und 4 gb an einer 1024 bit speicheranbindung, mit speziellen treibern, das ist die leistungskrone!
Sowas will ich und nichts mit CF verbunden wo effektiv aus 4 gb 2 bleiben...

Watercooled mit sowas kriegt man mich, die leistung sollte 2 jahre ausreichen sogar metro mit JHD spielbar bleiben, aber AMD denkt zu effizient, kleine chips mit der leistung von größeren nvidia chips. Ich habe FRÜHER Nvida immer verehrt eine karte mit 320 bit und eine 192 bit speicheranbindung, all sowas in der variation, dennen wars immer egal die spieler lieben die heute noch dafür. Oder früher kamen monster mit 512 bit raus, alles mögliche und heute alles zum Ko.... spiele sind mmn. um den faktor 2 schlechter geworden, das zwingt mich bei windows xp zu bleiben weil ich für 7 KEINE verwendung habe, spiele mit LAN ade... alles nur so ein H...o mist, alles wird schlechter, grafik wie geil.... wenn das spiel schlecht ist.

Supermonster edition war früher mit ner höheren bandbreite nicht nur am takt geschraubt was easy ist.

Tost auf die alten zeiten, ich gehe weiter feiern....
 
Sgt.4dr14n schrieb:
Also ich sehe die Karte in hohen Settings (womit man das Teil auch befeuern sollte) eher näher an der HD5870 als an der HD5850.

https://www.computerbase.de/2010-10/bericht-radeon-hd-6800/

Und jetzt zieh mal von den High-Quality Werten der 6870 noch 3-5% ab, weil die schlechter AF filtert als die 5850 mit A.I.off.
Leistungsmäßig sind 5850 und 6870 eine Klasse, um 2-3% braucht man da nicht zu diskutieren, die 5870 bleibt unerricht für die 6870.

Kasmopaya schrieb:

Äh, was willst du mit den fehlerhaften Benches?
Gleich schnell:

https://www.computerbase.de/2010-10/bericht-radeon-hd-6800/9/#abschnitt_crysis_warhead
 
Zuletzt bearbeitet:
Toxicity schrieb:
@Cey123: wovon träumst du nachts?
Die GTX 480 verbraucht knapp 300W

das wüsste ich.... dieses Geschwätz von Ahnungslosen STINKT zum Himmel!

mein System:

i7 970 1,32 VCore und 4 GHz !
GTX 480 mit 1,000VCore und 800 Core und 1600 Shader, also auch OC

maximal Last nach 3 Wochen messen, zwischen Steckdose und PC Messgerät: 375 W Load, und das ist der absolute Peak! normal sind so 350

und willst du mir erzählen das die CPU auf 4 GHz 50 W zieht, inklusive dem ganzen anderen Kram? interessant

nicht immer nur Bildzeitung lesen und das dann als Fachwissen verkaufen, danke
 
Zurück
Oben