News ATis DirectX-11-Serie wird Radeon HD 5800?

Jay|(stAr) schrieb:
jetzt mal ganz ehrlich. Was hier teilweise von sich gegeben wird ist echt unfassbar! :evillol:

Zum Glück sind die Besucher von CB und Poster in den Comments nicht repräsentativ für die deutsche/weltBevölkerung..

ihr seid echt alle ein paar schätzchen :freaky:

*zustimm* :evillol:


Kasmopaya schrieb:
Stimmt, die gleiche Situation hat es beim R600 v. G80 gegeben. Nur da war es genau anders rum NV war früher fertig.

Falsch! War nicht der gleiche Prozess :cool_alt:
 
@Special User
Ist doch immer so....
Egal was für News es ist überall kommen Flames -.-
Irgendwann gibt es halt keine Kommentar Funktion, dann sind hoffentlich alle zufrieden.

Die Namensgebung war schon vorher klar :p
Bei nvidia wird es wahrscheinlich komplett neues Namensschema geben. (mal wieder^^)
 
Ich bin mir nicht mehr so sicher, woher ich die Infos habe...aber das war glaub ich bei PCGamesHardware. :rolleyes:
Da wurde in dem Artikel erwähnt, dass die DX11-Grafikkarten (Neue Generation) bis zu 3-fach schneller sind (G-Flops), als die jetztigen Grafikkarten.
Jedoch finde ich den Artikel nicht mehr... :(

Aber das man der Meinung ist, dass die die DX11-Grafikkarten nicht so stark sind...ist mir ein Rätsel.
Woher nimmst du dir dann die Infos um diese Meinung zu bilden lol? Oder denkst du dir das einfach nur...?
 
Falsch! War nicht der gleiche Prozess
Ach ja stimmt, die unter Idle und Last mehr verbrauchende HD 2900XT war in 80nm und die zusätzlich viel schnellere GF8 war in 90nm. Und ich dachte schon mir läuft ein Khorintenkacker über den Weg. :rolleyes:


Ja klar, 130 kHz in der horizontalen - und in der vertikalen?

CRT Monitor - Bildschirmdiagonale: 22" - Bildmaske: Schlitzmaske - Auflösung: 2048 x 1536 Pixel - Bildwiederholungsfrequenz: 80 Hz - Vertikalfrequenz: 50 - 160 Hz - Horizontalfrequenz: 30 - 130 kHz - Anschluss: Video D-Sub, DVI-A

So jetzt reichts aber, ich spiel kein CS und erst recht nicht mit 200FPS, das war ja nur ein Beispiel. Lieber Bildqualität erhöhen und da sind dann Multi-GPU Gespanne stark im Nachteil weil meistens auch noch der Vram ausgeht. ;)
 
Zuletzt bearbeitet:
kontra schrieb:
Weitere Spezifikationen für Radeon HD 5870:

Gibt es eine Quelle für diese Zahlen? Grundsätzlich entsprechen sie ja den Erwartungen und würden auch zu den vor einigen Tagen aufgetauchten Vantage Scores des RV870 (~ R700) passen.

Sollten es wirklich 96 TMUs sein, wäre ich sehr positiv überrascht. Damit würde das ALU:TMU Verhältnis seit längerem das erste Mal wieder zurückgehen, und man könnte auch bei AMD mal wieder einen hochwertigen anisotropen Filter einsetzen ohne die ALUs auszubremsen.

Um diese Kombination von 1200 ALUs und 96 TMUs zu erreichen, müsste sich aber die Zusammensetzung der Shadercluster von 16 auf 10 Vec5 Einheiten pro TMU Quad ändern.

Was das 256 bit Speicherinterface angeht, bin ich auch noch etwas skeptisch. Vielleicht wurde die Architektur ja auf einen niedrigeren Bandbreitenverbrauch hin optimiert, aber von der 4870 ausgehend scheinen 22% mehr Bandbreite für deutlich mehr Chipleistung (80% mehr Shaderleistung, 188% mehr Texel- und 140% mehr Pixeldruchsatz) etwas knapp dimensioniert.

Gerade beim R800 würde ich auch auf eine Variante mit 2x 2048 MB warten, ist zwar im Moment nur in Extremsituationen von Vorteil, aber dafür ist eine solche Karte ja auch gemacht. Und vielleicht entschließt sich AMD ja doch noch auch mal (zumindest inoffiziell) SSAA anzubieten... Auch eine offizielle Möglichkeit für Downsampling wäre sehr willkommen und könnte ordentlich VRAM schlucken.
 
.xXASUSXx. schrieb:
Du bist an einer Highend-Graka mit DX11 interessiert, & das einzige was dich interessiert ist der Stromverbrauch ? :lol:

EDIT: Falls die Karte so wie geplant daher kommt, denke ich mal ca. gleich viel wie eine 4870 jedoch hab ich kein Plan wie das im ruhezustand aussieht ;)

Selbstverständlich, ich will im Leerlauf keine Eier auf meiner Graka Braten. Ich will eine Energieeeffiziente High-End Lösung.

Für die 25% der Zeit in der 3D Spiele geredert werden, brauche ich maximale Power.
Für die restligen 75% benötige ich eine Energieeffziente Grafikeinheit. Keine die mir konstant 150Watt ins Nirvana pustet.

Es ist überhaupt keine Frage der technischen Machbarkeit, sondern nur eine Frage der Entwicklungskosten, die, solange der Markt nicht nach Energieeffizienten Lösungen schreit, nicht ausgegeben werden.
 
Richtig, kann dir OSJF nur zustimmen. Hoffe stark dass die neuen High End's von ATI den Kühler verwenden der auf dem aktuellen Bild zu sehen ist. Deutet immerhin auf Stromspartechnik hin. Ist der referenz 4770 Kühler.

Wenn schon 40nm dann auch die Vorteile der geringeren Leistungsaufnahme an den Endkunden weitergeben und nicht gleich das ganze ausnutzen und nen Megachip al'a NV zu basteln.
 
Kein 384 - 512Bit SI
Keine ATi dieses Jahr!

Ich seh es nicht ein: Zahle gerne 20€ mehr Anschaffung aber den GDDR so hochzupushen ist a) nicht gesund und b) geht auf meine Abwärme + Stromrechnung!

Und die Performance steigert sich ja bekanntermaßen mit dem SI auch :(
 
Wenn schon 40nm dann auch die Vorteile der geringeren Leistungsaufnahme an den Endkunden weitergeben und nicht gleich das ganze ausnutzen und nen Megachip al'a NV zu basteln.
Kleiner Tipp die HD 4770 40nm gibts schon... 4770 1GB ist schneller als eine 4870 512 also kauf doch die wenn se kommt. High end ist nunmal maximale Leistung bis max. 300Watt Verlustleitung. Die 4770 hat max. 75Watt, auf was wartest du?
Zu viel Leistung gibs für die nächsten Jahrzehnte mal überhaupt nicht. Alles was wir wollen ist ja nur das der Leerlauf einigermaßen im Rahmen bleibt...
Ich seh es nicht ein: Zahle gerne 20€ mehr Anschaffung aber den GDDR so hochzupushen ist a) nicht gesund und b) geht auf meine Abwärme + Stromrechnung!
Im Idle geht sie wahrscheinlich auf deine Stromrechnung, aber für dich auch nochmal HD 4770 128erSI mit GDDR5 beste Karte auf dem Markt extreme Watt/Performance...

256SI +OC GDDR5 hätte ich auch gerne beim GT 300 gesehen. 512SI + GDDR5 ist wahrscheinlich Overkill und senkt die Watt/Performance, aber abwarten.
 
Zuletzt bearbeitet:
Wenn es wirklich nur ein 256Bit SI wird, muss Ati aber auf den teuersten und damit schnellsten GDDR5 Ram zurück greifen. 900Mhz Chiptakt wollen mit Daten versorgt werden, bei der X2 mit 950Mhz noch mehr.
Bislang hat Ati ja nur auf etwas langsameren aber günstigeren GDDR5 Ram gesetzt.
Ich war eigentlich der Meinung, sie erhöhen das SI um weiterhin nicht auf schnellsten Ram setzen zu müssen, aber naja, lag wohl wie viele andere daneben.
nV wird wohl auch endlich auf GDDR5 setzen und hoffentlich ihr fettes SI beibehalten :spekulier.
 
ich bin schon wirklich gespannt auf die Teile und auf den alljährlichen Kampf ATI vs. nVidia
 
Kleiner Tipp die HD 4770 40nm gibts schon... 4770 1GB ist schneller als eine 4870 512 also kauf doch die wenn se kommt. High end ist nunmal maximale Leistung bis max. 300Watt Verlustleitung. Die 4770 hat max. 75Watt, auf was wartest du?
Zu viel Leistung gibs für die nächsten Jahrzehnte mal überhaupt nicht. Alles was wir wollen ist ja nur das der Leerlauf einigermaßen im Rahmen bleibt...

Was? Wie kann eine 4770er schneller sein als die 4870er 512? Nur durch erhöhtem speicher? Kann ich nicht glauben. Hast du einen link? Die 4770 hatte ich schon damals ins Visier genommen, dann dachte ich mir hm, ich will mir eh im Bereich September/Oktober ein neues System holen, warum dann nicht gleich DX11 und guter Performance (mit der Hoffnung dass ATI die Vorteile der 4770 auch weiterhin in die neue Gen reihe einbringt -> Stromsparend soll sie sein, dass ist Zukunft!).

Ich bin auch einer der mehr auf den verbrauch guckt, aber DX11 samt hoher Performance und aktuellster Technik usw. klingen doch etwas verlockend. Wie gesagt ich bin nur noch auf den Preis + Strombedarf gespannt, leise soll sie natürlich auch sein :D

Bei mir kommt zurzeit nur ATI in frage, da NV scheinbar erst nächstes Jahr aus dem Schlaf kommt, hoffentlich auch vernünftiger, statt die Kunden mit neuen Namensgebungen zu verarschen.
 
nV wird wohl auch endlich auf GDDR5 setzen und hoffentlich ihr fettes SI beibehalten :spekulier.
Freu dich mal nicht zu früh, was ist wenn der GDDR5 den Idle Stromsparmodus zerstört -> ach ja euch interessiert Stromsparen ja nicht sonderlich, darum kauft man auch eine HD 4890. Mich würds echt nicht wundern wenn ATI wieder einen enormen Idle Stromverbrauch hat, bei so einer Einstellung. HD 4890 verkauft sich ja wie geschnitten Brot zu Dumpingpreisen! Was sollte man da auch großartig einen Idlestromsparmodus einbauen, der dann die Karte wieder um 5€ verteuert. :rolleyes:

Nur durch erhöhtem speicher? Kann ich nicht glauben. Hast du einen link?
Sobald ich Tests zur Hand habe bist du der 1. der einen Link von mir bekommt. ;)

Zur Zeit gibts die 4770 nur mit 512MB, die ist dann so schnell wie eine 4850 512...

MfG Kasmo
 
Zuletzt bearbeitet:
also ich glaube das die 5800er karten richtig power haben. es war ja letztens ein screen aufgetaucht der im 3dmark vantage bestätigt hat dass die karte (5870) so schnell wie ne gtx295 ist, nur 1-2 % langsamer. 18000k pkte (hd5870) gegen 18300 pkte (gtx295). das wäre echt super :).
 
Kasmopaya schrieb:
Edit:
Epic Fail bei der 5870 X2 nur 2x 1GB Vram. Jetzt müssen sich den Vram teilen sonst sind Mulit GPU Setups(2x GTX 285 2GB) wie die Asus Mars schneller...

Meine güte, deine Posts sind Epicfail, es nervt echt hier herum zu lesen. Bist du scharf auf den Unyu Avard oder was?
Die Leute kleben Millionen von Transistoren zusammen, wo du mit nem 5/12Volt Schalter überfordert bist - die werden mit aller Sicherheit die Kopetenz besitzen, eine sinnvolle Speicherkonfiguration neben ihre GPUs zu löten.
Und wem es nicht genügt kauft halt die 2GB Karten der jeweiligen Boardpartner ...

Kasmopaya schrieb:
Richtig wenn man seine Grafikkarte immer nur 1 Jahr behält, was ich lächerlich finde.

Egal in welchem Zusammenhang, ist es nicht so lächerlich wie heute für 50% Mehrkosten 20% Mehrleistung einzukaufen, weil man der Meinung ist sich für Übermorgen noch Luft verschaffen zu müssen, obwohl es morgen für den Preis von heute die Doppelte Leistung gibt.
Solange Hardware für die eigenen Bedürfnisse ohne große Einschränkungen ausreicht, macht es absolut keinen Sinn mehr auszugeben, als die Preis/Leistungssieger kosten.
 
Scheiss auf auto stromsparmecha ... @desktop 100mhz gpu 300mhz ram via atitraytools... too easy ..

Ich will dammit noch eins endlich OPENCL in breiter Anwendung sehen gpu@Coprozessor.

Fuck wie wärs mal mit flashvideos @GPU ...

Und endlich mal ne VideoEncoding @GPU Lösung like Badaboom ...

passwordcracker @gpu sind eher nieschenanwendungen wird echt mal zeit für alltäglich nutzbare GPU Leistung per OpenCL ..

Physik Effekte sind langsam mal als Standart anzusehen ... voll zerstörbare Umgebung FTW ...

Wenn ihr energie sparen wollt dann ersetzt eure (Glüh)Birnen durch LED Strahler ...


mfg
 
Meine güte, deine Posts sind Epicfail, es nervt echt hier herum zu lesen. Bist du scharf auf den Unyu Avard oder was?
Wenn es sowas gibt nehm ich den gerne an ;)

wo du mit nem 5/12Volt Schalter überfordert bist
?

die werden mit aller Sicherheit die Kopetenz besitzen, eine sinnvolle Speicherkonfiguration neben ihre GPUs zu löten.
4870 512, 3870 X2 2x512, auf NV Seite: 8800GTS 320; 8800GTS 512, 9800GTX 512, 9800GTX+ 512, 9800 GX2 2x512, GTX 295 2x896

Und wem es nicht genügt kauft halt die 2GB Karten der jeweiligen Boardpartner ...
Nicht jeder hat 2x PCIe 2.0 16x und als Ausrede für einen Vram Krüppel echt schwach. Wobei man echt noch die neue Architektur abwarten muss, vielleicht kann der Vram tatsächlich gemeinsam genutzt werden?

obwohl es morgen für den Preis von heute die Doppelte Leistung gibt.
neue Architekturen bilden da die Ausnahme Beispiel-> 8800GTX
Solange Hardware für die eigenen Bedürfnisse ohne große Einschränkungen ausreicht, macht es absolut keinen Sinn mehr auszugeben, als die Preis/Leistungssieger kosten.
Ja eben meine Rede, genau mein Punkt. Egoismus pur. Umwelt interessiert ja nicht. Strom zahlt die Mami und kommt aus der Steckdose, mehr interessiert ja nicht

Wenn ihr energie sparen wollt dann ersetzt eure (Glüh)Birnen durch LED Strahler ...
Jetzt sagt nicht ihr habt noch Glühbirnen ;)

MfG Kasmo
 
Zuletzt bearbeitet:
Zurück
Oben