News Das ist die AMD Radeon R9 290X

Herdware schrieb:
Ich "bashe" nicht und wehre mich entschieden gegen diese Unterstellung!
Ich will weder AMD noch Nvidia oder irgendjemand anderen schlecht reden.
Ich nehme mal an, dass du dich abgesprochen fühlst, obwohl du nicht angesprochen wurderst.
Zu erkennen ist dieser Fakt daran, dass beim Zitieren nicht du sondern wer anderer zietiert wurde.

Ich erwarte einfach den üblichen Fortschritt bei einer neuen GPU-Generation, wie wir ihn seit vielen Jahren gewohnt sind. Nicht mehr und nicht weniger. Im Fall von Hawaii sogar den 1,5-fachen Fortschritt gegenüber Tahiti (weil dazwischen ja auch noch ein nicht vermarkteter Refresh liegt).
...
Aber >30% gegenüber Tahiti (so wie Tahiti seinerzeit gegenüber Cayman) muss Hawaii nach 2 Jahren Entwicklung schon bringen, sonst ist es einfach nur eine große Enttäuschungund totaler Stillstand.
Das Problem ist halt nur, dass dich keiner/kaum wer nachvollziehen kann, warum du glaubst, dass AMD ohne Strukturverkleinerung selbe Verbesserungen schaffen (muss)wird, wie früher mit Strukturverkleinerung.

Ca. 30% mehr würden bedeuten leicht über der Titan, die auf einem schon gut einer Jahr alten GPU basiert. (Zwar größer als Hawaii aber auch beschnitten und stark auf GP-GPU ausgelegt.)
Erstens, nur weil es im Labour oder später bei wenigen Prestige-Kunden es eine GK110 zu kaufen gab, heißt es noch lange nicht, dass man dies dazuzählen kann. Schließlich tust du es ja auch nicht bei der Konkurrenz.
Bei Intel laufen die CPUs meist auch 1 Jahr vor Produkt-Starts und trotzdem zählt man die Intel-CPU als alte Architektur, nur weil sie in den Labours & Software-Partner schon seit gefühlten Ewigkeiten laufen.

Zweitens,
kannst du vielleicht irgendwann einmal erklären, was "stark auf GPGPU-Zugeschnitten bei Titan & Co" heißt.
Du tust ja so, als ob Thaiti keine HPC-Karte @ S9000 oder S10000 wäre, nur weil der GK104 in Sachen GPGPU-HPC völlig unfähig ist.

Ich lasse mir einfach nicht weiß machen, dass diese Hoffnungen total übertrieben sein sollen und das wir usn darauf einstellen müssen, dass AMDs brandneue Generation gerade mal so an die alte GTX780er rankommen und nicht mal preislich deutlich darunter liegen wird. Damit lockt man doch wie gesagt keinen Hund vor die Tür. Das wäre Leistung von Gestern.
Genau solche Leute wie du sind es dann, die dann die neue GPU von AMD schlechtreden, bis dann der Next-Gen von Nvidia mit den großen Aha-Effekt kommt und dann auch Technik-uninformierte erkennen, dass die neue GPU von AMD doch nicht soo schlecht war wie ständig geredet wurde.
Das war bei HD 5870 mit +60% so, wo die große Hoffnung bei GF100 bei +100% war.
Das war bei HD 7970 mit +30% so, wo die große Hoffnung bei GK100 bei +60% @ 3-5 Monate später war, was bewirkt hat, das HD 7970 mit lächerlichen 499$ völlig schlechtgeredet wurde.

Nachvollziehen könnte jeder, wenn du z.B: sagst, dass R9 290X langsamer als Titan wäre, weil bei GPU-13 nur von AMD-Fastest-GPU-Ever und nicht Fastest-GPU-Ever gesprochen wurde. Dieser Hinweis wäre zwar nicht eindeutig, aber zumindestens schon hinreichend bzw. ein Hinweis, auf das man Aufmerksam machen kann.
Sowie würde auch nachvollziehen, dass +25% mehr Shader-Einheiten nicht 1:1 sondern 1:0,6 skalieren, weil es bei den Vorgänger-Produkte so ist.

Einfach zu Hoffen geht bei dir deshalb nicht, weil du die alte Laier nichtnachvollziehbar ständig wiederholst.

Hoot schrieb:
Mir ist durchaus bewusst, was 20 oder 30% bedeutet...warum du mir unterstellst völlig ahnungslos zu sein, ist mir aber ehrlich gesagt nicht klar. Ich sehe es einfach wie Herdware und sehr es nüchtern.
Dass es dir bewusst ist, ist anhand des Textes nicht zu erkennen.

Achtja: Bashing habe ich nicht nötig. Warum? Keine der Firmen zahlt mir Geld, keine der Fimen ist meine Partnerin, für keine der Firmen bezahle ich nur einen Cent, wenn das Prdoukt meinen Anforderungen nicht genügt (evtl will ich viel Leisting, evtl. wenig Verbrauch, evtl. gar keine). .
Genau deshalb habe ich ja geschrieben, dass diese Art ein Typischer Bashing-Trick ist.
Ob das du jetzt bewusst gemacht hast oder unbewusst, wirst wohl du wissen, aber ich habe dir einmal verdeutlicht, was du eigentlich schreibst.

Und wenn du Produkte nur deinen speziellen Anforderungen bewertest, dann schreibe es so im Kompletten durch und eben nicht den Switch mit "eigenen speziellen Anforderungen" auf eine "generelle (= für die Masse des Marktes) Produkt-Bewertung."

Ich sehe es ganz einfach aktuell so:
Ist am Ende halb so viel dran wie nun gehofft, kommt nVidia mit Maxwell und ist vorne dabei...
Da wie die Experten hier wissen und ....
Dieses Hoffnungs-Märchen ist fast so alt wie die >500mm²-Dies selber.
GTX 280 wurde mit +100% gehofft und erreichte "nur" +60"
GTX 480 wurde mit +100% @ 180W-TDP gehofft und erreichte +60% @ 240W
GTX 580 wurde gehofft, dass die GTX 480-Hoffnung eintritt, was nur bei der Performance erreicht wurde und die +50%-W blieben.
GTX 680 wurde auch mit +60-100% @ 2Q 2012 als GK100 gehofft, aber es kam GK104, er ebenfalls nur +30% (wie HD 7970 ) erreichte.
GTX 780 wurde wieder mit +60% gegenüber HD 7970 Ghz @ üblichen 600$-Preisen gehofft, aber es kam Titan mit Mega-Preis und Titanic Wertverfall, während GTX 780 als GK110-Restln ncohamls später kam.

Also, das Ewige Hoffen hat sich noch nie bei >500mm²-Dies erfüllt, während die Hoffnung des G80 garnicht so hoch war.

... ich ahnungsloses Würmchen dank hochqualitativer Beiträge auch, dauert die Entwicklunf eines Chips mehrere Jahre. NVidia war schon bei GCN1.1 über die milde Leistung verdutzt (GK110), weswegen der eigentlich geplante Nachfolger wohl auch wesentlich stärker gewesen sein müsste/in gewissen Punkten besser ausfallen müsste. Ob wir diesen natürlich auch wirklich als solchen zu sehen bekommen, muss mir ein besser aufgeklärter Beobachter oder Mitarbeiter einer der Firmen mitteilen
Kann man das auch so erklären, dass man es auch den Roten Faden dieser Aussage verstehen kann?
Wie soll Nvidia über GCN 1.1 verdutzt worden sein, wenn Nvidia GCN 1.1 in voller Entfaltung noch garnicht sehen konnte.

GCN 1.1 wäre höchstwahrscheinlich nur beim High-End voll zu sehen gewesen, so wie VILW-4 es nur bei HD 6900er-Serie gab, während die übrigen 6000er noch auf VILW-5 setzten.

GPU-Entwicklugnen ist kein Wunchkonzert, wo die neue Karte automatisch gut sein muss/müsste, wenn es davor jemand etwas enttäuschte (oder umgekehrt)
 
Zuletzt bearbeitet:
Bluescreen schrieb:
wieso das so ist, kann ich dir nicht sagen, aber ich habs schon selbst getestet und mit hdmi adapter kriege ich keine 120herz...
Hä? HDMI -> DVI Adapter?
Ist auch egal.... HDMI hat zu wenig durchsatz für 120Hz @FullHD.
Es gibt aber DP->DL-DVI active Adapter für Ca 15€.
Es gibt auch DP->VGA Adapter.

aylano schrieb:
Oder andererseits ist es ein typischer Bashing Trick einfach die Erwartungen "zu hoch" anzusetzen und bei nichterfüllung, dann ständig die Enttäuschung über das Produkt aufgrund des "geringen unter den Erwartungen" Nutzen uns preiszugeben.

Willkommen an der Börse xD
 
PuppetMaster schrieb:
Es geht hier um einen Adapter von DP auf DVI. Da geht mit einem günstigen passiven Adapter eben nur Single Link mit knapp 4 Gbit/s, für Dual Link bräuchte man einen teuren aktiven Adapter mit eigener Stromversorgung.

Na und!? Wer noch einen älteren Monitor besitzt muss dann halt mal in den sauren Apfel beißen und einen Adapter kaufen. Ansonsten werden anständige (Nicht der Billig-Dreck) Monitore schon seit Jahren auch mit DP ausgeliefert.

Herdware schrieb:
DisplayPort, DVI und HDMI haben alle ihre Daseinsberechtigung und sollten an jeder aktuellen Grafikkarte vorhanden sein (oder entsprechende Adapter beiligen). Das sind alles aktuelle Standards, die sich in verschiedenen Bereichen etabliert haben und jeweils Vor- und Nachteile bieten.

Noe.

Dai6oro schrieb:
- immer noch 28nm
- Der Stromverbrauch wird wohl nahezu gleich bleiben.
- Lediglich neue Architektur und höhere Packdichte. (Basierend auf einer vorhandenen Architektur)

Früher wurde ja bei einer neuen Generation gerne mal neue Architektur, höherer Stromverbrauch, kleinere Strukturbreite mitgenommen. Alles zusammen führt natürlich zu sehr viel mehr Leistung im Vergleich zur alten Generation.

Die Schlussfolgerung ist kompletter Unsinn.
 
Ich weiß gar nicht wo das Problem ist, wenn Nvidia eine Karte ins Rennen schickt die zum Wucherpreis für knapp 1000€ über die Theke geht und 30% mehr Leistung hat, Jubeln alle.
Wenn von AMD nichtmal ein 3/4 Jahr später eine Karte kommt, die in etwa das gleiche Leisten wird wie Titan, und im Vergleich zur aktuell Günstigsten Lieferbaren Titan 200-300 weniger kostet, schreien alle das 30% mehr Leistung zu wenig sind.

Die Logik muss erst mal einer Verstehen...


Und zur Anschluss Diskussion:
Wer noch auf alte Standards setzt soll gefälligst Adapter kaufen. Wer 300-400€ allein für eine Karte ausgibt, wird ja wohl das Geld haben für ein Vernünftigen Monitor.

Bei mir kommt keine Grafikkarte/Laptop/Monitor mehr ins Haus was nicht mindestens 1 DisplayPort Anschluss hat.
 
Zuletzt bearbeitet:
Haldi schrieb:
Es gibt aber DP->DL-DVI active Adapter für Ca 15€.

Link dazu bitte?, habe für meinen damals gebraucht 40€ gezahlt, neu 100€.

Für 15€ findet man nur billige DP->SL-DVI aber nicht Duallink. (und eine billige die zwar einen Duallink stecker haben, allerdings nur Single-Link ausgeben können)

Die richtigen 120/144hz Duallink Adapter brauchen alle zusätzlich Strom per USB und die gibt es nicht für 15€
Ergänzung ()

anonymous_user schrieb:
Ich weiß gar nicht wo das Problem ist, wenn Nvidia eine Karte ins Rennen schickt die zum Wucherpreis für knapp 1000€ über die Theke geht und 30% mehr Leistung hat, Jubeln alle.
Wenn von AMD nichtmal ein 3/4 Jahr später eine Karte kommt, die in etwa das gleiche Leisten wird wie Titan, und im Vergleich zur aktuell Günstigsten Lieferbaren Titan 200-300 weniger kostet, schreien alle das 30% mehr Leistung zu wenig sind.

Die Logik muss erst mal einer Verstehen...

weil die 780 übertaktet schneller ist als eine Titan und auch 200-300 weniger kostet? Die Titan lässt sich natürlich auch übertakten durch Bios-Mods, Voltage-Mods etc, aber das wird ja in Tests nicht berücksichtigt.
 
Zuletzt bearbeitet:
die 290x stellt das Äquivalent zur 7970 wie die 780 zur 680, welche bekanntermaßen ebenso wenig 50% drauflegen konnte, nur das man bei der 290x bedeutend weniger Flächenzuwachs vom Die benötigt, sondern mehr über eine Effizienzsteigerung der Architektur erreicht. Insofern hat AMD bei gleicher Strukturgröße wohl alles richtig gemacht. Man kann natürlich surreale Vorstellungen zur Norm erklären und enttäuscht werden.
 
rivalxstorm schrieb:
weil die 780 übertaktet schneller ist als eine Titan und auch 200-300 weniger kostet? Die Titan lässt sich natürlich auch übertakten durch Bios-Mods, Voltage-Mods etc, aber das wird ja in Tests nicht berücksichtigt.
Und was soll mir das jetzt sagen? Man vergleicht doch nicht nicht übertaktete mit übertakteten Karten. Vergleichen tut man @Stock Settings.
Das Argument "Karte XY kannste übertakten" zieht nie, kannst ja schließlich alle Übertakten!
 
Entweder man vergleicht @stock, oder @max oc, oder @gleichlaut Settings.
Alles andere ist fuer mich als Kaeufer absolut uninteressant.
 
anonymous_user schrieb:
Und was soll mir das jetzt sagen? Man vergleicht doch nicht nicht übertaktete mit übertakteten Karten. Vergleichen tut man @Stock Settings.
Das Argument "Karte XY kannste übertakten" zieht nie, kannst ja schließlich alle Übertakten!

Ich persönlich bevorzuge max clock vs max clock ohne BIOS Mods. Und dort ist die 780 gleichauf wenn nicht schneller als die Titan.

Erst wenn man noch Hand anlegt per BIOS Mod kann man die Titan erst richtig hochtakten.

Daher auch keine Euphorie meinerseits zur R9 290x. Etwas schneller als eine 780 und Preis über der 6990 - > kein Preissturz bei Nvidia und Preis/Leistung der 290x genauso scheiße.
 
anonymous_user schrieb:
Das Argument "Karte XY kannste übertakten" zieht nie, kannst ja schließlich alle Übertakten!

Wenn sich aber nicht alle gleich gut übertakten lassen zieht das Argument schon.

Ohne BIOS Mod und damit höher verbundenen Risiko ist die Titan eine OC Krücke und die 780 lässt sich weitaus besser übertakten.
 
Dann lässt die sich halt besser Takten, trotzdem hat die Titan Karte mehr Shader und mehr Speicher. Selbst wenn die Titan weniger getaktet wird, bleibt die in sachen GPGPU trotzdem vor der GTX780 oder gleichauf. Und das gleiche wird bei der R9 290X auch der Fall sein. Die wird auch sicherlich gut übertaktbar sein, und hat ebenfalls mehr Power in hinsicht auf GPGPU.

Wenn die R9 290X auf höhe der Titan liegt, dann wird auch keine übertaktung der GTX780 da groß was dran ändern. AMD High End Karten sind nicht für schlechtes OC Potenzial bekannt, geschweide denn das einem da großartig BIOS Mods bevorstehen.
 
Du weißt aber schon dass die 780 den gleichen OC-Restriktionen unterliegt wie die Titan? Bei beiden ist die Spannung limitiert, auch wenn sich diese durch Afterburner oder BIOS-Mods umgehen lässt. Mit Afterburner sind bis zu 1,3V möglich.
Allerdings taktet die 780 von Haus aus höher, außerdem dürfte die Chance auf einen guten Chip bei der Titan höher sein.
Nichts desto trotz läuft das ganze auf ein ähnliches OC-Potenzial hinaus, da die Basis doch trotzdem sehr ähnlich ist.
 
Und nichts anderes habe ich geschrieben...

Es gab Karten mit enormerer Mehrleistung bei enormen Mehrverbrauch, solche mit fast keiner Mehrleistung und dafür weniger. Verbrauch, aber auch Karten, die einfach ein Flop waren.
Danke dass du diese meine Aussage mit Zahlen untermalst! Dass du mir aber unterstellst, ich würde das nicht wissen, obwohl ich es einen Beitrag vorher schon geschrieben habe, zeigt doch eher wie aufmerksam du liest...

Aber manche scheinen schon ein extrem verzerrtes Bild anderer zu besitzen, sofern diese nicht ihrer Meinung sind, weshalb gleich mit Bashing entgegen wird.

Warum sollte ich hervorheben müssen, dass ich ein Produkt nach MEINEN Bedürfnissen einkaufe? Ich kaufe schließlich keinen PC oder Bestandteile eines solchen, weil mein Nachbar einen neuen braucht...

Wenn ich ein Nvidia/Intel Fan: warum sitzt ein Phenom bei mir? Warum hatten ALLE PCs bis vor kurzem einen Athlon X2 (jetzt eine Xeon), warum hatte ich meist Radeon Karten?
Ganz einfach: weil ich das gekauft habe, was zum jeweiligen Zeitpunkt gut für meine Bedürfnisse war. Das nennt sich Bedürfnis-gerechtes Einkaufen. Ich warte sicherlich nicht aus irgendeinen großen Wurf von Firma XY - ich nehme, was mir am Tag X passt - egal von wem...für manch einen scheint das aber sehr verstörend zu sein.

Mit dem Argument zu kommen, GCN1.1 hat sich nicht entfaltet, weil dieses oder jenes nicht möglich war, darauf zu hoffen, dass es aber noch anders kommt, ist so weltfremd, wie zu Glauben, dass sich durch eine neue Partei alles grundlegend ändert.
Ich sehe was ich aktuell belegt bekommen kann und das ist momentan....genau NICHTS!

Sollte durch Mantle ein Gewinn von x% drin sein, zeigt es, dass Dx oder andere einfach x% langsamer sind oder der Gewinn durch Mantle und GCN - oh Wunder - bei x% liegt.

Aber genau wegen einer kritischen Einstellung bin ich in deinen Augen ahnungslos. Andere könnte ich dafür naiv nennen, solange nicht das Gegenteil bewiesen ist - durch objektive Tests! Ich habe lediglich meine Meinung zu gewissen Schätzungen abgegeben...mehr nicht. Kein Anspruch auf Richtigkeit, keine Behauptung alles andere wäre falsch.

Ich glaube erst, was erzählt und versprochen wurde, wenn ich es dann in Tests sehe. Auf gleiche Art und Weise Handhabe ich es mir Produkten seitens Intel oder nVidia. Wo hier eine voreingenommen liegt, muss mir aber erklärt werden.
Ich denke eher, dass es in diesem Thread eher darum geht, eine Selbstprofilierung zu ermöglichen, die manchmal nicht anders möglich ist, indem man andere Meinungen zu untergräbt oder zu "zerstören" versucht. CB zeigt über die letzten Jahre hinweg aber auch deutlich, dass die Quantität eines Forums nicht immer mit dessen Qualität einhergeht, zumal ich einen Vergleich zu anderen Foren besitze, in denen Leute mit anderer Meinung und Skeptik bzgl. eines nicht (!) getesteten Produkts nicht gleich in deren Person untergraben werden, obwohl dort nicht nur von mir, sondern auch anderen, eine vergleichbare Meinung kundgetan wurde.

In diesem Sinne: glaub, was du willst, aber lies vorher richtig, erkenne und verstehe, dass es sich um eine Meinung handelt, die weder bewiesen noch widerlegt werden kann. Am Tage des Launches wird man sehen, wer Recht hatte. Hatte ich es nicht: hatte ich es eben nicht. Davon wird meine Meinung und Skeptik nicht schlecht oder unbegründet, da wie schon so ist gesagt, es aktuell nicht belegbar ist und nur eine Meinung ist.
 
Zuletzt bearbeitet:
Dai6oro schrieb:
- immer noch 28nm

Die Zeiten, in denen kleinere Strukturen dirket proportional mehr Leistung bedeuteten, sind vorbei. Mehr Transistoren pro Fläche bringen herzlich wenig, wenn das Die augenblicklich schmelzen würde, wenn man sie gleichzeitig schaltet. Der Stromverbrauch ist hier nicht mehr nur ein Problem der Stromversorgung und Kühlung der Karte, sondern die Energiedichte auf den Chips selbst wird bei immer kleineren Strukturen der kritische Faktor.
Auch die Schaltströme sind dabei nicht mehr der Faktor, der den Verbrauch bestimmt, sondern viel mehr die Lecksströme. Deshalb bringt es nicht viel die Strukturen weiter zu verkleinern um die Schaltspannungen zu senken, denn das Problem der Leckströme verstärkt man dabei nur noch mehr.
Und schneller schaltende Transistoren helfen auch nicht viel. Wenn man die Geschwindigkeit jedes Transistors verdoppelt, wir die GPU nur 3% schneller, weil die interne Datenübertragung der Flaschenhals ist.

Die Leistungszuwächse der GPUs werden also nicht mehr nur dadurch erzielt werden, indem man wie früher immer "breiter" wird (mehr Transistoren) und immer höhere Frequenzen fährt, sondern vor allem durch geschickte Optimierung der Architektur. Die machen es überhaupt erst möglich, das Potential eines Fertigungsprozesses annähernd auszureizen, z.B. indem interne Schnittstellen optimiert werden und Funktionsgruppen dynamisch deaktiviert und aktiviert werden, damit die benachbarten überhaupt effizient genutzt werden können usw.

Deshalb auch die offizielle Aussage von AMD, dass Hawaii in 28nm gefertigt wird, weil damit für diese GPU-Klasse (unter den derzeitigen Bedingungen) sowohl bessere Performance als auch bessere Effizienz erzielt werden kann, als mit einem weniger optimierten 20nm-Chip.


- Der Stromverbrauch wird wohl nahezu gleich bleiben.
- Lediglich neue Architektur und höhere Packdichte. (Basierend auf einer vorhandenen Architektur)

Ungefähr konstanter Stromverbrauch bei neuer und optimierter Architektur (Volcanic Islands beinhaltet ja auch den Sea Islands Refresh) und wesentlich größerem Die (>16% größer als Tahiti). Dass damit >30% mehr Leistung erzielt werden kann, halte ich nicht für unrealistisch. Nicht nach stolzen zwei Jahren Entwicklungsarbeit.
Alles andere wäre auch eine schwere Enttäuschung. Wie gesagt, ein Äquivalent zur GTX780 mit ihrem teildeaktivierten, über ein Jahr alten GK110 könnte AMD sich auch gleich ganz sparen. Wer sowas will, hat schon längst zugeschlagen.

Früher wurde ja bei einer neuen Generation gerne mal neue Architektur, höherer Stromverbrauch, kleinere Strukturbreite mitgenommen. Alles zusammen führt natürlich zu sehr viel mehr Leistung im Vergleich zur alten Generation. Das ist vorbei. Besser du gewöhnst dich an den Gedanken.

Stimmt. Aber das bedeutet nicht, dass die keine Fortschritte mehr gemacht werden. Man muss sich nur auf andere Bereiche konzentrieren. Es wird dadurch sicher nicht einfacher, aber indem man gezielt die Flaschenhälse angeht, die verhindern das Potential vorhandener Strukturgrößen auszunutzen, lässt sich bei selben Fertigungsprozess noch sehr viel rausholen.

Nehmen wir ausnahmsweise ein Beispiel aus der CPU-Welt. Die letzten Netburst P4 und die Core 2 wurden im selben 65nm-Fertigungsprozess hergestellt. Trotzdem waren die C2D nicht nur sparsamer sondern auch wesentlich performanter als die P4. Ganz allein durch Veränderungen an der Architektur.

Daher könnte sich Mantle durchaus als Game changer herausstellen. + 20%/30% (wohl eher Richtung 15%) nur durch eine Softwareapi die der Konkurrent nicht hat würde Einschlagen wie ein Bombe.

Mantle würde ich erstmal gar nicht berücksichtigen. Oft genug haben wir vergeblich auf optimierte Software gewartet. Das liegt einfach nicht in der Hand der Hardwarebauer. Nicht mal Intel mit seinem Quasi-Monopol hat so viel Einfluss. Man kann es natürlich versuchen und ein paar Partner gewinnen, aber einen Durchbruch (breite Verfügbarkeit optimierter Software innerhalb der Lebensspanne dieser Hardwaregeneration) muss das noch lange nicht bedeuten.
Hardware mss sich deshalb immer vorrangig an der existierenden Software beweisen. Zukünftiges Potential durch Softwareoptimierungen ist bestenfalls ein Bonus oben drauf, der vielleicht irgendwann relevant wird, vielleicht aber auch nicht.

Ihr werdet ja sehen wie Nvidia mit Maxwell das gleiche Problem haben wird. Derzeit geht man ja davon aus dass auch Maxwell noch in 28nm kommt. Mal sehen was die Grünen dann zu bieten haben. Aber die werden auch nur mit Wasser kochen.

Solange Nvidia nichts in der Richtung bestätigt, sind das nur Theorien. Aber unwahrscheinlich ist das natürlich nicht, da sie auf ganz genau die selben Herausforderungen stoßen wie AMD.
 
Hoot schrieb:
Es gab Karten mit enormerer Mehrleistung bei enormen Mehrverbrauch, solche mit fast keiner Mehrleistung und dafür weniger. Verbrauch, aber auch Karten, die einfach ein Flop waren.
Danke dass du diese meine Aussage mit Zahlen untermalst! Dass du mir aber unterstellst, ich würde das nicht wissen, obwohl ich es einen Beitrag vorher schon geschrieben habe, zeigt doch eher wie aufmerksam du liest...
Deine Aussagen sind so extrem breitgefächert, dass du dich offensichtlich immer bestätigt fühlst, wenn man mit Zahlen kommt.

Aber manche scheinen schon ein extrem verzerrtes Bild anderer zu besitzen, sofern diese nicht ihrer Meinung sind, weshalb gleich mit Bashing entgegen wird.
Aber manche scheinen schon ein extrem verzerrtes Bild anderer & sich selbst zu besitzen, sofern diese nicht ihrer Meinung sind und ständig solange die nichtnachvollziehbare eigene Meinung wiederholen müssen, bis ....

Warum sollte ich hervorheben müssen, dass ich ein Produkt nach MEINEN Bedürfnissen einkaufe? Ich kaufe schließlich keinen PC oder Bestandteile eines solchen, weil mein Nachbar einen neuen braucht...
Weil nicht du das Thema des Threads bist, sondern das Produkt "AMD Radeon R9 290X". Und dieses Produkt wurde nicht speiziell für dich entwickelt, sondern für Gamer. Deine speziellen Ansichten sind nicht das Thema und schon garnicht wiederkäut in mehreren Therad-Themen.

Mit dem Argument zu kommen, GCN1.1 hat sich nicht entfaltet, weil dieses oder jenes nicht möglich war, darauf zu hoffen, dass es aber noch anders kommt, ist so weltfremd, wie zu Glauben, dass sich durch eine neue Partei alles grundlegend ändert.
Ich sehe was ich aktuell belegt bekommen kann und das ist momentan....genau NICHTS!
Es ist nicht weltfremd.
VILW-4 hat sich auch nur im Top-Modell gezeigt und bei Sea-Island hätte man GCN 1.1 primär beim Top-Modell gesehen.
Kabini hat ebenfalls 4 ACE was eben ein Indiz für 1 ACE pro Grafik-Engine ist, was dann zu dem nachvollziehbarsten Sea-Island-Gerüchten passt.

Weltfremd sind Leute, die glauben, dass andere Leute nicht mehr Wissen können. Und solche können erst recht nicht diskutieren, weil sie alles als Weltfremd & Co bezeichnen, was sie nicht nachvollziehen können. Denn wer Technisch die GCN 1.0 Architektur nicht versteht, der fangt mit ACE & Grafik-Engines & Co eben nichts an, und warum Hawaii (wie Sea-Island Top) eben 4 Grafik-Engine haben muss.

Sollte durch Mantle ein Gewinn von x% drin sein, zeigt es, dass Dx oder andere einfach x% langsamer sind oder der Gewinn durch Mantle und GCN - oh Wunder - bei x% liegt.

Aber genau wegen einer kritischen Einstellung bin ich in deinen Augen ahnungslos.
Ich wüsste nicht was an dieser lächerlichen Aussage kritisch ist.
Du Zeigst nur, dass du nie mit echten Kritischen Aussagen zu tun hast. Und ich meine jetzt nicht wie im Fernsehen & Zeitungen, wo Leute versuchen über ein Thema kritisch reden, was sie a) nie gelernt haben und b) sowie generelles Systemdenken nicht lernten.

Andere könnte ich dafür naiv nennen, solange nicht das Gegenteil bewiesen ist - durch objektive Tests! Ich habe lediglich meine Meinung zu gewissen Schätzungen abgegeben...mehr nicht. Kein Anspruch auf Richtigkeit, keine Behauptung alles andere wäre falsch.
Eine Meinung bleibt dann eben keine Meinung mehr, wenn du sie dann öfters wiederholst, ohne auf andere einzugehen.
Dafür gibts eben andere Wörter.

In diesem Sinne: glaub, was du willst, aber lies vorher richtig, erkenne und verstehe, dass es sich um eine Meinung handelt, die weder bewiesen noch widerlegt werden kann. Am Tage des Launches wird man sehen, wer Recht hatte. Hatte ich es nicht: hatte ich es eben nicht. Davon wird meine Meinung und Skeptik nicht schlecht oder unbegründet, da wie schon so ist gesagt, es aktuell nicht belegbar ist und nur eine Meinung ist.
Ich bin mir sicher, dass du dann glaubst in Recht zu sein.
Ich kann dir jetzt schon sage, dass du Unrecht mit deiner Argumentation hast, weil es beim Diskutieren nicht um recht & Unrecht geht, sondern um Eintrittswahrscheinlichkeiten basierend auf Indizien.

Herdware schrieb:
Deshalb auch die offizielle Aussage von AMD, dass Hawaii in 28nm gefertigt wird, weil damit für diese GPU-Klasse (unter den derzeitigen Bedingungen) sowohl bessere Performance als auch bessere Effizienz erzielt werden kann, als mit einem weniger optimierten 20nm-Chip.
Im Grunde sagst du es selber. DERZEIT.
Fürs nächste Quartal kann diese Aussage wieder nicht mehr Stimmen.
Effizienz-Steigerungen durch neue Architekturen gibt es schon seit 15 Jahren. Und trotzdem ist der Stromverbrauch von so 20W auf 250W gestiegen. Also, tu bitte nicht so, als ob die Effizienz-Steigerung durch Architektur-Verbesserungen was völlig neues ist und diese Genatialität seit GCN & Co

Mit True-Audio & Mantle haben wir jetzt schon 2 Schlagende Argumente, warum GCN 2.0 im Herbst 2013 @ 28nm statt mit Verspätung in Frühjahr 2014 @ 20nm so wichtig sind. Eben weil AMD jetzt schon die Software-Entwicklung vorantreiben will, indem man die Software-Hersteller mit funktionierende aktueller Hardware überzeugen kann.

Der Wechseln auf 28nm könnte auch Nvidia überrascht haben, die jetzt eben die neuen Maxwell-Technologie a) eben nicht präsentieren können und b) auch noch keine Hardware dazu präsentieren können, wo die Software schon drauf angepasst werden kann.

Ungefähr konstanter Stromverbrauch bei neuer und optimierter Architektur (Volcanic Islands beinhaltet ja auch den Sea Islands Refresh) und wesentlich größerem Die (>16% größer als Tahiti). Dass damit >30% mehr Leistung erzielt werden kann, halte ich nicht für unrealistisch. Nicht nach stolzen zwei Jahren Entwicklungsarbeit.
Alles andere wäre auch eine schwere Enttäuschung.
Eine HD 7970 @ 40nm konnte gegenüber (hat auch 2 Jahre entwicklung) HD 7970 @ 28nm gerade mal so 55-60% zulegen können, bei so 25-30% Mehrverbrauch.
Also, dass man so locker >30% Perfromance-Steigerung bei gleichen Stromverbrauch zulegen kann, ist nur lächerlich, wenn HD 7970 gegenüber HD 5870 gerade mal +30% Effizienz-Steigerung schaffen konnte.

Wie gesagt, ein Äquivalent zur GTX780 mit ihrem teildeaktivierten, über ein Jahr alten GK110 könnte AMD sich auch gleich ganz sparen.
Warum sollte sie sich sparen, wenn sie nicht die Performance-Krone hätte, aber Preis-Leistungs-Mäßig trotzdem besser?
Warum sollten sie sich Hawaii sparen und die Mantle- & True-Audio-Verbreitung später beginnen?
Außerdem ist Volcanic-Island nicht nur Hawaii. Es wirkt schon bei manchen schon ziemlich verzweifelt, wenn sie sich nur auf den Hawaii vs Titan-Kampf krampfhaft beschränken.

Nehmen wir ausnahmsweise ein Beispiel aus der CPU-Welt. Die letzten Netburst P4 und die Core 2 wurden im selben 65nm-Fertigungsprozess hergestellt. Trotzdem waren die C2D nicht nur sparsamer sondern auch wesentlich performanter als die P4. Ganz allein durch Veränderungen an der Architektur.
Lächerlich, eine Generelle Architektur-Entwicklung mit dem größten CPU-Flop zu vergleichen, der es ja nie im Notebook-Markt durchsetzen konnte. Netburst ist nicht aufgegangen, weil die Takte nicht wie geplant in die Hohe gingen.

Mantle würde ich erstmal gar nicht berücksichtigen. Oft genug haben wir vergeblich auf optimierte Software gewartet. Das liegt einfach nicht in der Hand der Hardwarebauer.
Aber man braucht eben die neue Hardware, um Mantle zu verbreitern können.
Softwarehersteller müssen überzeugt werden, weil sie Geld nicht sinnlos riskieren wollen. Und am besten kann man mit vorhandener Hardware, die am Markt ist, überzeugen.

Hardware mss sich deshalb immer vorrangig an der existierenden Software beweisen. Zukünftiges Potential durch Softwareoptimierungen ist bestenfalls ein Bonus oben drauf, der vielleicht irgendwann relevant wird, vielleicht aber auch nicht.
Was AMD macht, ist immer ein Bonus und was Intel & Nvidia macht, wird überlegende Technik genannt.
 
aylano schrieb:
Was AMD macht, ist immer ein Bonus und was Intel & Nvidia macht, wird überlegende Technik genannt.

Nein. Bei denen ist das ganz genauso.

Und die sind beide auch schon öfters mehr oder weniger kraftig auf die Nase gefallen, wenn sie darauf vertraut haben, dass die Softwareindustrie ihre tollen neuen Zukunftsfeatures auch fleißig unterstützen wird oder sich auch nur in die Richtung entwickelt, wie sie es vorausgesehen haben.

Nehmen wir z.B. Nvidida ersten Grafikchip, den NV1. Ein wirklich revolutionäres Ding, das statt auf kantige Polygone auf "NURBS" (auf Kurven/Splines basierenden Freiformflächen) setzte. Aber wie diverse andere neuartige Konzepte bei den ersten 3D-Beschleunigern wurde das nie angenommen und floppte.
Auch Physix könnte man als weitgehenden Fehlschlag nennen. So richtig um sich gegriffen hat diese propritäre Erweiterung nie. Ich hab in drei GeForce-Generationen (8800GTX, GTX470 und GTX580), die ich besessen habe, noch niemals davon gebrauch machen können.

Bei Intel könnte man den Pentium Pro als Beispiel nehmen. Eine (zu) sehr zukunftsorientierte CPU, die voll auf 32Bit-Leistung optimiert wurde. Zu Zeiten, wo mit Win95 gerade ein Betriebsystem populäre wurde, das immer noch aus einem bunten Mix aus 32- und 16 Bit Bestand. Mit bestehender Software auf üblichen Betriebsystemen war ein Pentium Pro somit schwächer als sein Vorgänger und er floppte spektakulär.
Bei Core 2 z.B. machte Intel es besser und optimierte die CPUs gezieltauf existierende Software, statt sich darauf zu verlassen, dass die Softwareschmieden ihre Programme auf die CPUs anpassen.

Ein anderes Beispiel, wie man es richtig macht, kommt von AMD. Der Athlon 64. Der brachte zwar die revolutionäre 64Bit-Erweiterung mit, die heute gebräuchlicher Standard ist, aber das war nicht die Grundlage seines Erfolges, sondern die Stärke in konventionellem 32Bit. Die sorgte dafür, dass die Athlon 64 sich erfolgreich verbreiteten und damit auch die Basis für kommende 64-Bit-Software schufen. Als die sich letztlich durchsetzte, waren die ersten Generationen von Athlon 64 schon längst wieder museumsreif. Aber das machte nichts, weil die CPUs durch ihre Stärke mit alter 32Bit-Software glänzten. Wer sich so einen gekauft hatte, wurde nicht enttäuscht, obwohl das namensgebende Feature zu Lebzeiten nie relevant wurde.

Ob Mantle ein Flopp wird oder in ein paar Jahren eine große Rolle spielt, wird man sehen. Aber die Entscheidung, was ich jetzt für eine Grafikkarte kaufe, würde ich daran sicher nicht fest machen.
 
Alles reines Marketing. Hier wird mit der ach so geheimen neuen TOP AMD Karte die man freundlicher Weise vorbestellen kann in Verbindung mit BF4 und Mantle die Werbetrommel gerührt, das es nur so kracht.
Wenn in 6 Monaten neue Grafikkarten in 20nm raus kommen, weil dann in 20nm produzieren rentable ist, sind die jetzt neuen Karten das alte Eisen und alle die gekauft haben gucken dumm aus der Wäsche. Der BF4 Hype ist bis dahin auch vorbei.
Um den Aufwand möglichst klein zu halten und damit den Gewinn zu optimieren kommen die Top Karten im neuen Design und alles darunter wird einfach umgelabelt. NV hat es ja vorgemacht wo nur die 780 und die Titan einen neuen Chip haben.

In der heutigen Zeit kauft man nur das was man jetzt auch braucht und ganz wichtig ist, das ein Produkt mindestens schon 6 Monate auf dem Markt ist. Somit ist man kein Beta Tester und kauft auch nicht die Katze im Sack. Das gilt für alle Hersteller und egal ob CPU oder GPU.
Die Halbwertzeit von Hardware wird immer länger weil richtige Performance Sprünge wie früher sieht man sowieso nicht mehr. In dem Sinn wird mein Rechner in der Signatur mir auch noch bis 2015 für alles ausreichen.

Eines sollte jedem klar sein: Spiel werden auch 2014 immer noch so programmiert, das die auch auf Hardware aus 2012 vernünftig laufen und spielbar sind. Einzig Leute die mit vollen Details, 120FPS und Monster Monitor daher kommen suchen nach Top Hardware und werden auch dementsprechend abgezockt. Das ist aber die Minderheit und das Geld macht man mit der Masse.
Die Leute die sich einen Rechner von der Stange kaufen lesen auch nicht hier und wissen auch nicht, dass die die ach so aktuelle Grafikkarte in Wirklichkeit eine umgelabelte alte Karte ist und Sie die selbe Leistung auch billiger bekommen hätten.

Wie oben schon geschrieben, alles Marketing und abzocke.
 
Herdware schrieb:
Nein. Bei denen ist das ganz genauso.

Und die sind beide auch schon öfters mehr oder weniger kraftig auf die Nase gefallen, wenn sie darauf vertraut haben, dass die Softwareindustrie ihre tollen neuen Zukunftsfeatures auch fleißig unterstützen wird oder sich auch nur in die Richtung entwickelt, wie sie es vorausgesehen haben.
Ich musste die Aussage über "Bonus" deshalb lachen, weil ich das gerade zwischen 2010 und 2013 besonders oft höhrte, wo einfach nicht verstanden hat, dass z.b.: Multimedia-Fähigkeiten & Co auch Leistungen sind und nicht nur nette Features.
Und das war noch zu einer Zeit bevor der Netbook-Untergang und Ultrabook-Desinteresse Sichtbar war sowie bevor Intel massive iGPUs vergrößerte.
Und mit Netbooks (= billige kleine Notebooks) und iPhone & iPAD (Massentauglich) hat die Industrie nebenbei mehrmals bewiesen, dass man recht lange warten muss, bis ein Hersteller dann kapiert, wie man Geräte doch sinnvolle & Massentauglich bauen kann, während die anderen 10-15 Hersteller einfach noch nach alten Zeiten Herstellt.

Aber wie du jetzt auf Mantle sooo kommst, verstehe ich nicht.
Wenn Software-Herstellung so lange dauert, dann bestehtig erst recht mich, dass ein sofortiger Hawaii @ 28nm wichtiger war als riskanter & eventuell ein paar Monate späterer Hawaii 20nm.

Auch Physix könnte man als weitgehenden Fehlschlag nennen. So richtig um sich gegriffen hat diese propritäre Erweiterung nie.
Du musst verstehen, dass PysX dazu da war, um die Konkurrenz endgültig auszuschalten/benachteiligen.
Dass sie viele Jahre nur Single-Core-CPU usw ausnutzten ist genau das gegenteil von Mantle, wo man versucht mit 8 Core das Multi-Threading endlich durchzusetzen.

Ob Mantle ein Flopp wird oder in ein paar Jahren eine große Rolle spielt, wird man sehen. Aber die Entscheidung, was ich jetzt für eine Grafikkarte kaufe, würde ich daran sicher nicht fest machen.
Hier geht es trotzdem noch um R9 290X, mit TureAudio auch noch nebenbei Mantle einführt, deren Möglichkeit man im Bezug auf APUs und Desktop & Notebook & Server wir noch nichteinmal kenne.

Mantle mit 32/64-Bit-Software zu vergleichen ist deshalb lächerlich, weil man bei 64-bit Software blöderweise eine 64-Bit-Hardware und neben bei noch 64bit-Betriebsystem braucht, was jeweiles eine recht lange Verbreitungs-Zeit benötigt, während man bei Mantle trotzdem noch auf VILW-4-Hardware spielen kann.
Dazu werden Games von Grund auf neu entwickelt, während Software-Programme eben grundsätzlich nur weiterentwickelt werden und eine Umstellung auf 64-bit eine große Herausforderung ist.

Und nochmals für dich zum Topic.
Wegen True-Audio & Mantle gibt es sogar 2 wesentliche Zukunftstechniken, die eine sichere (non-Verspätung) & schneller (schnelle Verbreitung in der Masse) Umsätzung und somit Fertigung nötig hätte. Und wir sprechen hier von AMD-Techniken und nicht von Standard-Techniken wie DX10 oder DX11, wo eine Verschiebung ovn 3-6 Monaten garnicht auffiel, weil es beide Betraf.

Obwohl AMD mit TrueAudio & Mantle zwei Revolutionäre Gründe @ GPU-13 brachte, wird noch immer nicht die Dringlichkeit einer schnellen Hawaii-Umsätzung verstanden. Wer das verstanden hat, versteht, warum AMD somit nicht darauf genwiesen wäre, dass Hawaii unbedingt Titan schlagen muss, sondern ruhig 5-10% langsamer sein könnte und trotzdem für AMD erfolgreich sein zu können.

Alleine aus dieser Technik-Einführung setzt AMD dann Nvidia unter Druck (wegen der Software-Entwicklung/Unterstützung), die eben Maxwell mit den Problemen von 20nm einführen wird.
Denn die haben dann die Wahl ob sie GM104 sehr früh & unreif auf den Markt bringen werden oder etwas reifer aber dafür noch später, während AMD dann schon so 1-2 Quartale nach GM104 dann die Next-Gen @ noch etwas ausgereiften 20nm ziemlich in Ruhe rausbringen können und wieder mit weiteren Technik-Entwicklungen vorlegen kann.

Genau aus diesen Gründen, hatte ich mich mit einem möglichen 28nm-Hawaii schnell anfreunden können, weil mir klar war, dass eine neue Architektur neue Techniken & Features (Wie Mantle & true-Audio & Crossfire 3.0) bringen und diese aber schnell eingeführt werden wollen.

Dass Mantle eventuell erst in 2-3 Jahren so richtig durchschlagen könnte, wäre eigentlich schonmal ein Grund gleich R9 290X statt GTX 780 oder Titan zu kaufen, weil erst in 2-3 Jahren dann die Spiele kommen, die eher die R9 290X ans Limit bringen.

Auch wenn es der eine oder andere Mitarbeiter anders andeutet.
Die Vorgaben von Rory Read sind eindeutig und die heißen Execution a la schnelle & breite Verfügbarkeit.
Genauso wie ARM-Netzwerk @ Mitte 2014 noch in 28nm kommt, was eben keine schnelle & breite Verfübarkeit hätte, wenn es sich durch den 20nm-Massenstart @ 1Q 2014 ausgehen könnte.

AMDs neue Strategie ist jetzt klarer.
Und zwar mehr Wert (= R&D-Ressourcen) auf Architetkur-Entwicklung bzw. generelle Design-Entwicklung zu legen und weniger Wert auf Desgin-Entwicklung mit problematisch neuen Fertigungen, auch wenn sie in den ersten Monaten viel effizienter wären.
 
True-Audio ist etwas, das ich eher uninteressant finde. Ich hab ja nicht mal eine Möglichkeit, meine Soundanlage an die Grafikkarte anzuschließen. Die müsste dafür SPDIF oder klassische analoge Anschlüsse (Klinke) haben und davon sehe ich an den Hawaii-Karten nichts.
Ich habe meinen Monitor zwar über DisplayPort angeschlossen und somit kommt auch das Audio-Signal der Grafikkarte an, aber so toll können die True-Audio-Features gar nicht sein, dass sich die auf den internen 5W-Quäkern besser anhören, als der klassische Sound auf meiner Sourroundanlage. ;)
True-Audio wird bei mir also sowieso brach liegen und ich schätze bei dem allergrößten Teil der sonstigen PC-Gamer auch, weil sie wie ich mit einem Audio-Signal über HMDI oder DP nicht wirklich was anfangen können.
Bei Spielkonsolen, die gewöhnlich an Fernsehern laufen (oder optimalerweise zusätzlich über aktuelle Heimkino-Soundanlagen, die mit Audio über HDMI was anfangen können) sieht es natürlich etwas anders aus.

Mantle ist ein Feature, das ich wie gesagt nur als potentiellen Bonus mit einer gewissen Zukunftsperspektive ansehe. Kann sein, dass es in ein paar Jahren einige Spiele geben wird, die davon deutlich profitieren. (Und das wirklich nur, weil Mantle über die Konsolen gepusht wird, sonst hätte es gar keine Chance.)
Die Spielbarkeit oder gar Verfügbarkeit von AAA-PC-Titeln wird davon aber sicher nicht abhängen. Keiner mit einer halbwegs aktuellen DX-Karte wird dadurch außen vor bleiben. Das können sich die Spiele-Entwickler und Publisher gar nicht leisten. Eher würden sie die PC-Ports ganz bleiben lassen, als alle auszusperren, die keine top-aktuelle AMD-Grafik haben.

Das neue Crossfire ist sicher interessant. Wobei ich die wesentlich wichtigere Neuerung in den Frampacing-Treibern sehe. Die macht Crossfire überhaupt erst richtig interessant. Vielleicht wird sich das gegenseitig ergänzen, wir werden sehen.
Aber so oder so ist Multi-GPU eine ziemlich kleine Nische. Nur für sehr wenige wird das bei der Kaufentscheidung eine Rolle spielen.

Keines dieser Features wird nenneswert dazu beitragen, die neuen Grafikkarten zu verkaufen. Die müssen in "konventioneller" Stärke überzeugen. Also in den meisten aktuellen Spielen (und denen, die in den nächsten ca. 3 Jahren erscheinen) eine sehr gute Grafikleistung abliefern, auch ohne spezielle Optimierungen.

Wie gesagt, eine Karte mit GTX780-Leistung zum GTX780-Preis käme ungefähr ein halbes Jahr zu spät und wäre auch dann schon kein Knaller gewesen, weil Nvidia das leicht mit den alten GK110 und/oder leichten Preisanpassungen toppen könnte.
Eine neue Generation muss die Vorgängergenerationen (auch die der Konkurrenz) leistungsmäßig deutlich übertrumpfen/deklassieren, sonst sind die darin investierten Jahre verschwendet.
 
Zuletzt bearbeitet:
Zurück
Oben