News AMDs „Radeon-HD-7000“-Serie unterstützt PCIe 3.0

Wolfsrabe schrieb:
Aus ähnlichem Grund setze ich auf ein zukünftiges System, was mein jetziges nicht nur in einigen wenigen, sondern in vielen Punkten "erneuern" soll:
USB 2.0 --> USB 3.0
PCIe 2.0 --> PCIe 3.0
DDR2 --> DDR3
DX10 --> DX11
SATA 3 GB/s --> SATA 6 GB/s
AMD HD 4870 --> AMD HD7870 (:p)
2-Kern --> Nochmehr-Kern (:p)
usw usf.

Wenn das alles auf einem AMD-basierten Board möglich ist und nativ statt mit Fremdanbieterchips realisiert wird, schlag ich zu. Wird wohl auch bei mir heißen: einlösbar nicht vor Mitte/Ende 2012. :)

Ja, so ähnlich sieht es bei mir auch aus, nur eben PCIe1.1-->PCIe3.0 (werde auf BD2 warten). So lohnt sich das mal. Wer z.B. von AM2 auf AM2+/fühes AM3 oder von S775 auf S1366/S1155 gewechselt hat, hatte so gut wie keine bemerkbaren Plattfromverbesserungen.
 
juhu Ivy + AMD 7XXX = Crysis mit 300 FPS xD mit 3D und 3 Monitoren :D

Und die süchtis hauen sich dann 2x 7XXX rein udn haben 500 FPS aber Microruckler ^^
 
ja, besonders weil mikroruckler auch bei über 40 - 60 fps vorkommen (ausser natürlich bug im treiber / schlechte spiele engine).^^
 
Compute schrieb:
Von der doppelten Bandbreite profitieren heutige Karten doch kaum. Es wurde doch schon festgestellt, dass der Unterschied zwischen PCIe 2.1 mit 8 Lanes und 16 Lanes maximal 5% beträgt. Das wird bei PCIe 3.0 auch nicht anderst sein. Insofern ist PCIe 3.0 kein Feature, das man ums verrecken bräuchte. Jeden Falls sehe Ich es nicht ein, wenn Ich dafür einen Aufpreis von mehr als 10€ zahlen müsste.

Die Betonung liegt auf heutige Karten.
Wir reden hier aber von der Next-Generation in 28nm und komplett neuer Architektur.
Da könnte es eventuell für PCIe2.0 schon enger werden und ein Jahr später kommt der Refresh der 7000er Serie usw.
Wer jetzt noch meint, das man PCIe3.0 nicht benötigt, der hat vermutlich noch einen Athlon64 in seinem Rechner. :D
 
Bevor die Grafikkarten von der Bandbreite profitieren ist das Board schon wieder Schnee von gerstern.
 
Lycos schrieb:
Ivy Bridge wird PCIe 3.0 unterstützen. Bulldozer nicht.

AMD baut also ein Feature ein, welches die eigenen Prozessoren frühestens ab Ende 2012 unterstützen werden: Will ich eine GraKa mit PCIe 3.0 nutzen, so muss ich Intel kaufen.

Schon komisch. Irgendwie ...
Ergänzung ()

Für memory-bound applications (GPGPU Computing) spielt das bei jeder Karte ne Rolle. Sogar die alte 4000er Serie würde davon profitieren ...


Du musst ja ne top Insider-Quelle haben um zu wissen dass die Komodos erst Ende 2012 released werden.Außerdem wäre es sogar möglich dass Amd beim 2.Launch des Bulldozers (fx-8170) da vielleicht schon etwas machen kann.Generell haste aber Recht.Wer auf der sicheren Seite sein möchte wartet auf den Sande-E und holt sich dann ein pci-e 3.0 board dazu um dann nur noch auf die 7000er/600er warten zu müssen.
 
Kein Plan schrieb:
Wenn die 7000er karte auch mit 2.0 oder gar 1 läuft, wozu braucht man denn pcie3 außer um damit zu werben?

tja! die selbe Frage wurde so ziemlich bei jeder technologischen Weiterentwicklung gestellt.

Die Antwort ist übrigens im ersten Satz "versteckt"!

Grundsätzlich, wenn PCI3.0 dazu verwendet wird, die Karte gleich doppelt so teuer zu verkaufen als Sies sonst wäre dann wärs natürlich mist. Wenn aber alles gleich ist und das ding halt eben unterstützung für die neue technik mitbringt....was solls?
 
Ball_Lightning schrieb:
Sinnfreie Aussage, da es bei jeder neuen Serie natürlich auch Modelle unter 300€ geben wird :rolleyes:

Stimmt schon daher warte ich auch immer ab weil ich nicht immer das neuste brauch.

Tranceport schrieb:
@freezer831:
Ich hätte schon gern eine bezahlbare Graka um die 250 Euro für 2560*1440 ;-) Bei Crysis & BF3 ist/wird die Graka schon ziemlich gefordert.

Sie wird gefordert aber bei Crysis kann ich mit einer GTS 250 immer noch auf High spielen ohne irgendwelche Probleme.Nächstes Jahr hol ich mir wieder eine Graka aber auch nur für max 150 euro.Hätte zwar das Geld um die Neuste Hardware zu kaufen aber ich sehe kein Sinn drin wofür ich das machen soll da die Graka´s eh billiger werden wenn sie etwas älter sind.die 6870 kostet auch nur noch 120 und wo sie raus kam an die 250.Sollange man die Spiele spielen kann ist doch alles bestens.Sonst müsste man sich ja auch nen LED,3d TFT holen.Und aufen 42 zoll Fernseh zock ich net.Da reicht mir mein 22 zoll tft alle male.Jeder hat ne eigene Meinung und das ist auch gut so;)
 
Mal sehen was draus wird.

Aber vor 2012 sehen wir die Karten nicht.
 
Wäre richtig geil, wenn die den neuen 3D Standard unterstützen. 3D der 2. Generation. Wenn ja, dann ist so eine Karte ne Überlegung wert.
 
Pickebuh schrieb:
Die Betonung liegt auf heutige Karten.
Wir reden hier aber von der Next-Generation in 28nm und komplett neuer Architektur.
Da könnte es eventuell für PCIe2.0 schon enger werden und ein Jahr später kommt der Refresh der 7000er Serie usw.
Wer jetzt noch meint, das man PCIe3.0 nicht benötigt, der hat vermutlich noch einen Athlon64 in seinem Rechner. :D

Hmm, heutige Karten kommen mit 4GB/s aus. PCIe 2.0 x16 liefert 8GB/s. Die Leistung von 6000 auf 7000 erhöht sich um maximal 100% (40 -> 28nm =100%). Diese Mehrleistung wird aber auch zu 100% in mehr Shader, höheres AA, höhere Auflösung usw. gesteckt. Die CPU wird nicht mehr belastet werden und der Trafic zur GPU (Texturen, KI, Physik, Modelle, usw.) wird auch nich wirklich viel mehr werden. Das ändert sich erst mit neuen Konsolen.

Nach dieser Auflistung wird wohl auch eine 7970 mit PCIe 2.0 x8 (=4 GB/s) locker auskommen ;)

PS: Für alle (noch) uninformierten gibts hier nen tollen Test über die benötigte Bandbreite von heutigen GPUs. Laut dem reicht, zumindest für ne 5770 auch noch PCIe x4 aus. Aber hey, wer jetzt noch nicht den Sinn von PCIe 3.0 x16 erkennt, der läuft wohl noch mit ner Radeon 9700 Pro rum ;)
 
Zuletzt bearbeitet:
Was ne tolle Rechnung. Wie kommst du darauf, dass aktuelle Karten genau mit 4GB/s auskommen? Es stimmt, dass PCIe2.0 x8, was PCIe 1.x x16 entspricht, gegenüber PCIe2.0 x16 gerade mal 2% zurückliegt (wir nehmen dann doch mal besser diesen Test mit einer GTX480, eine HD5770 ist nicht wirklich representativ), aber daraus kann man nicht sagen, es sind jetzt genau 4GB/s.

Genial ist aber deine Gleichung 40nm auf 28nm wäre eine Steigerung von 100%, was dann auch gleich in 100% höhere Leistung umgesetzt wird. Das ist, auch mit neuen, aufgebohrten Architekturen und erhöhten Taktraten, einfach viel zu optmistisch und lässt sich nicht so pauschal sagen, abgesehen davon, dass der Shrink gerade mal 30% beträgt.
 
Solange PCIe 3.0 100%ig abwärtskompatibel ist isses mir wirklich gleich ob die neue Generation jetzt 2.0 oder 3.0 hat. Ich nutze derzeit einen E8500 mit ASUS p5q turbo und 4 GB RAM. Dieses System ist in Kombination mit meiner 6850 mehr als ausreichend schnell. Neue Schnittstellen wie PCI 3.0 oder SATA 3.1 jucken mich net die Bohne - solange ich noch adäquaten Ersatz für meinen PC bekomme. Beim Ende von AGP war das schon "leicht" problematisch wenn die eigene X850XT abgeraucht war. PCIe konnte man nicht verbauen und AGP wurde net mehr produziert (erst später wurde z.B. die X1950 als AGP rausgebracht).

Solange es kompatibel bleibt isses okay. Vor 2015 kaufe ich jedenfalls keinen neuen PC.
 
Felixxz21 schrieb:
PS: Für alle (noch) uninformierten gibts hier nen tollen Test über die benötigte Bandbreite von heutigen GPUs. Laut dem reicht, zumindest für ne 5770 auch noch PCIe x4 aus. Aber hey, wer jetzt noch nicht den Sinn von PCIe 3.0 x16 erkennt, der läuft wohl noch mit ner Radeon 9700 Pro rum ;)

Klar doch...
Wieso nicht gleich eine ATI 3850 als Referenz herhalten ?

Wenn man schon solche Links als Beweis seiner These heranziehen will, dann bitte schön mit aktueller Hardware, die auch die Leistung benötigt.

Siehe hier einen aussagekräftigeren Test für alle wirklich interessierten:
http://www.tomshardware.de/pci-expr...gaming-performance,testberichte-240774-9.html

Leistungsverlust zwischen 1-3 % zwischen PCIe x8 und PCIe x16 mit einer unteren High-End Karte. Wie wird das Ergebnis wohl bei der Next-Generation an Grafikkarten ausfallen ?
Wer immer noch sagt, das PCIe3.0 nicht benötigt wird, der bleibt eben bei seiner HD5770. ;)

Auch deine Argumentation mit dem Traffic zwischen GPU und CPU ist wirklich nicht ganz korrekt.
Glaubst du eine GPU macht alles alleine?
Ohne CPU macht die GPU rein garnichts !

Wenn die GPU schneller wird, muss die CPU auch schneller Daten liefern was die GPU machen soll. Ergo, es wird mehr Bandbreite benötigt.
Das hat nichts mit Konsolenports zu tun ect.
Natürlich ist das Ganze auch abhängig von der Art der Anwendung.
In Strategiespielen ect. wie Star Craft II usw. fällt deutlich mehr Traffic an und da macht sich die PCIe-Anbindung weitaus deutlicher bemerkbar.
 
Zuletzt bearbeitet:
Pickebuh schrieb:
Klar doch...
Wieso nicht gleich eine ATI 3850 als Referenz herhalten ?

Wenn man schon solche Links als Beweis seiner These heranziehen will, dann bitte schön mit aktueller Hardware, die auch die Leistung benötigt.

Bevor du hier auf die Kacke haust, hättest du dir den verlinkten Test auch mal genauer anschauen können, der kommt nämlich zum gleichen Ergebnis wie dein verlinkter von tomshardware: Zwischen 8x und 16x PCIe 2.0 Slots sinkt die Performance um weniger als 3%, egal ob nun ne 5770 (die mal weit aktueller ist als deine Übertriebene 3850) oder die GTX 570 im Testsystem steckt..

Pickebuh schrieb:
Leistungsverlust zwischen 1-3 % zwischen PCIe x8 und PCIe x16 mit einer unteren High-End Karte. Wie wird das Ergebnis wohl bei der Next-Generation an Grafikkarten ausfallen ?

Vermutlich ähnlich, aber es sagt auch keiner das mit x8 gespielt werden soll, sondern das x8 für heutige Karten noch ausreichen würde, und daher die doppelte Bandbreite von 2.0 x16 auf 3.0 x16 wohl so schnell nicht benötigt wird.
Und Standard ist ja heute nunmal x16 und nicht x8.

Pickebuh schrieb:
Wer immer noch sagt, das PCIe3.0 nicht benötigt wird, der bleibt eben bei seiner HD5770. ;)

Es ist zur Zeit kein zwingendes Upgradekriterium, das es generell nicht benötigt wird behauptet ja niemand.
Btw, ich habe nicht mal eine 5770, ich hab nur eine 88GT.
 
Tigerfox schrieb:
Was ne tolle Rechnung. Wie kommst du darauf, dass aktuelle Karten genau mit 4GB/s auskommen? Es stimmt, dass PCIe2.0 x8, was PCIe 1.x x16 entspricht, gegenüber PCIe2.0 x16 gerade mal 2% zurückliegt (wir nehmen dann doch mal besser diesen Test mit einer GTX480, eine HD5770 ist nicht wirklich representativ), aber daraus kann man nicht sagen, es sind jetzt genau 4GB/s.

Doch, weil PCIe 2.0 x8 hat eine Bandbreite von 4GB/s. Und diese 4GB/s reichen eben aus, um eine moderne GPU zu betreiben. Die 8GB/s von x16 erzielen nur 1-3% mehr, ergo werden sie nicht benötigt.

Genial ist aber deine Gleichung 40nm auf 28nm wäre eine Steigerung von 100%, was dann auch gleich in 100% höhere Leistung umgesetzt wird. Das ist, auch mit neuen, aufgebohrten Architekturen und erhöhten Taktraten, einfach viel zu optmistisch und lässt sich nicht so pauschal sagen, abgesehen davon, dass der Shrink gerade mal 30% beträgt.

Wenn du ein bisschen Ahnung von Chips und Geometrie haben würdest, hättest du deinen Post sofort zurückgezogen. Denn es stimmt zwar, dass 28nm nur 70% von 40nm sind, jedoch ist ein Chip ein Quadrat bzw. Rechteck. Somit musst du 0,7*0,7 nehemen und das sind 0,5. Also verbraucht ein 40nm Chip doppelt so viel wei ein gleicher 28nm Chip. Schau dir mal die ganzen Sprünge an, sind immer 0,7 (z.B. von 55nm auf 40nm).
 
Felixxz21 schrieb:
Wenn du ein bisschen Ahnung von Chips und Geometrie haben würdest, hättest du deinen Post sofort zurückgezogen. Denn es stimmt zwar, dass 28nm nur 70% von 40nm sind, jedoch ist ein Chip ein Quadrat bzw. Rechteck. Somit musst du 0,7*0,7 nehemen und das sind 0,5. Also verbraucht ein 40nm Chip doppelt so viel wei ein gleicher 28nm Chip. Schau dir mal die ganzen Sprünge an, sind immer 0,7 (z.B. von 55nm auf 40nm).

Ich lasse mich gerne korrigieren, aber ist das was du meinst nicht eher die Die Size? Schließlich geben die Nanometer ja nicht die Fläche des Dies an, sondern die Höhe vom Siliziumträger weg an oder nicht?
 
richtig.. Die Fertigungsgröße (z.b. 28 nm) hat genausoviel mit der größe de Chips zu tun, wie die Leistung einer Grafikkarte mit der Farbe des Zimmers.
Außerdem kann man von der fertigungsgröße auch kein bisschen auf den Verbrauch schließen, weil die immernoch von der verwendeten Spannung und Takt abhängt.
 
Zurück
Oben