News AMD Radeon R9 Nano: Grafikkarte im Mini-Format fällt unter 500 Euro

Chismon schrieb:
[...]ich denke eine Menge Leute werden in 2016 trotzdem aufrüsten wollen oder müssen, nur ob das Warten (der mögliche Aufpreis) gegenüber einer jetzt günstig zu habenden Nano sich lohnen wird (?) ... wir werden es sehen.

Schöner Beitrag!

@Peter_Shaw: Meinst du nicht eher PowerVR? :)
 
oldmanhunting schrieb:
Jeder der eine 970 hat ist blöd und kann nicht zocken weil er Nachladeruckler hat aber die 4GB der Nano reichen locker bis 2018 und sind eine zukunftsorientierte Investition.

Blöd ist nur so ein Troll wie du, der ohne fundiertes Wissen, vermeintlich glaubt in die Zukunft blicken zu können.
 
Zuletzt bearbeitet:
Ohne jetzt den Kontext eures Dialogs zu kennen, meine ich einen nicht unerheblichen Anteil von Eisen-Y und Nüssen in dem zitierten Beitrag heraus schmecken zu können.
 
pEaCeoNeArTh schrieb:
Man stelle sich einmal vor, es würden heute anstatt 2 Grafikchip Hersteller (AMD / NVIDIA) noch ein halbes Dutzend mehr an Herstellern existieren und was dann in den Foren an Fanboys herumschwadronieren würden...;)

D0m1n4t0r schrieb:
Ich würde dann 3dfx und Glide sowas von hypen :D

Peter_Shaw schrieb:
ST Microelectronics FTW! :p

Keine Frage, da wäre ich natürlich dem heimischen (kanadischen) Hersteller verfallen (produkt-parteiischer), also Matrox (neue Mystique und Millenium GPUs) all the way :) ... ja, Matrox gibt es ja sogar noch (frage mich wie lukrativ deren spezialisiertes Business wohl sein mag), nur leider nicht mehr vertreten in dem Consumer-GPU Segment und eigene Chips entwickelt man dort leider auch nicht mehr ... hach, wäre ein Comeback toll (habe meine Millenium damals heiß und innig geliebt)! Womöglich war das ebenfalls aus Kanada stammende ATI damals doch zu stark für Matrox um neben nVidia noch langfristig mitmischen zu können (und übernehmen lassen wollte man sich nicht wie geschehen bei 3dfx) und somit hat man sich auf Multi-Display-Lösungen spezialisiert, aber wer weiss das schon? Man müsste nur einen finanzstarken Investor anlocken ... wie sieht's aus Apple, Microsoft oder IBM?

Redirion schrieb:
Schöner Beitrag!

Besten Dank :)!
 
Zuletzt bearbeitet:
syfsyn schrieb:
Die gpu preise sind derzeit extrem unangemessen
CPu sind auch zu teuer
wir haben wieder ein Preisgefüge wie einst 2003
bevor es den athlon64 kam und nvidia neuer GPU gforce4
Und ati hatte nich die alte radeon 9xxx
erst 2004 kam ruhe ins Spiel

Das sehe ich ganz genau so.
Hoffen wir, dass es 2016 reißen wird!!
 
Seit der Nano + Powertune 2.0 sollte AMD den Stromverbrauch für künftige Karten senken können.
Bei Tomshardware gibts einen interessanten Bericht zum Maxwell Power Boost 2.0 oder wie die das nennen^^
Per se ist Maxwell nicht soviel sparsamer, es ist halt der Power Boost der viel filigraner den Stromverbrauch kontrolliert.
Nicht schlecht von NV.
 
Don Kamillentee schrieb:
Hä?

Die Nano geht grad auf 480€ runter. Dafür das sie in der Klasse GTX980 und Fury spielt, bei dem Design - ist die mMn jetzt das Schnäppchen, was ich damals für 500€ gefordert hatte :D Die 390 bietet mir im Vergleich zu meiner 290X nichts, außer mehr RAM.

Was aber auch mehr als ausreicht. Bei der 390 ist es wie bei der 2GB HD6950, super guter Vram Ausbau was die Karte lang Leben lässt.

Auch was die Balken angeht bietet die Karte mehr fürs Geld als jede Fiji, auch die Nano. Klar, wer Effizienz über alles hängt... Aber da hätte ich lieber ne leise größere Custom 390 mit nem besseren Ram Verhältnis für deutlich weniger Geld :)
https://www.computerbase.de/thema/grafikkarte/rangliste/#abschnitt_aktuelle_ranglisten

Von der 980er redet kein Mensch, die hat seit je her bescheidenes PL. Da is die 980TI ja noch besser, gerade wenn man 30% OC perse. It draufrechnen kann. Aber dafür bekommt man 2 390er
 
Zuletzt bearbeitet:
Das ganze Vertrauen auf 2016 und 14/16nm zu setzen halte ich für riskant. Immerhin bringt die Einführung eines neuen Fertigungsverfahrens immer hohe Preise mit sich, weil sich die Ausbeute erstmal einpendeln muß. Außerdem ist meist die zweite oder dritte Linie einer neuen Produkteihe ausgereift und sinnvoll.
 
Was ein neues Fertigungsverfahren (22->14nm) bei Intel bringt haben wir bei 4790k vs 6700k ja bereits gesehen. Etwa 1.5%?
2016 wird es keine "Rutsch" auf dem Markt geben. Die Hersteller wären ja selten dämlich ihr eigenes Sortiment in ihren eigenen Schatten zu stellen.

Wetten dass? Ich tippe mal auf maximal 25% Leistungszuwachs mit OC.

mfg,
Max
 
max_1234 schrieb:
Was ein neues Fertigungsverfahren (22->14nm) bei Intel bringt haben wir bei 4790k vs 6700k ja bereits gesehen. Etwa 1.5%?

+ Mehr Grafikkerne
+ Weniger Leistungsaufnahme

So ne selektive Wahrnehmung ist schon was feines, gell?

Wolfsrabe schrieb:
Das ganze Vertrauen auf 2016 und 14/16nm zu setzen halte ich für riskant

Vertrauen muss man ja nicht drauf, aber warten kann man schon um es sich wenigstens anzusehen. Wenn einem das Angebot dann vom Preis her nicht gefällt, oder vom Leistungszuwachs, kann man ja immer noch ne Karte mit alter Technik kaufen. Ich fänds schon ärgerlich wenn ich jetzt 500+ Euro für ne Karte raushaue und nächstes Jahr dann für den gleichen Preis die doppelte Leistung (oder geringere Energieaufnahme) bekommen würde. Wäre das anders, hätte ich schon längst ne 980Ti.
 
Zuletzt bearbeitet:
DocWindows schrieb:
+ Mehr Grafikkerne
+ Weniger Leistungsaufnahme

Wo widerspricht sich das mit meiner Aussage dass man keinen größeren Leistungssschub erwarten soll?
Die Dinger werden effizienter und das wars vermutlich auch schon.

DocWindows schrieb:
So ne selektive Wahrnehmung ist schon was feines, gell?
Ich fänds schöner wenn man (du) endlich mal richtig lesen würde abstatt imner gleich persönlich zu werden ;)

mfg,
Max
 
max_1234 schrieb:
Was ein neues Fertigungsverfahren (22->14nm) bei Intel bringt haben wir bei 4790k vs 6700k ja bereits gesehen. Etwa 1.5%?
2016 wird es keine "Rutsch" auf dem Markt geben. Die Hersteller wären ja selten dämlich ihr eigenes Sortiment in ihren eigenen Schatten zu stellen.

Wetten dass? Ich tippe mal auf maximal 25% Leistungszuwachs mit OC.

mfg,
Max

ui, setzen 6. Also so viel Unwissen hab ich bei dir nicht erwartet. Das ist 0 vergleichbar ohne die Transistor Density zu beachten. Bei GPU wirst du von 28nm auf 16nm im besten Fall (angenommen die Density steigt entsprechend der angegeben nm) Faktor 3 (!) mehr Transistoren bei gleicher Fläche unterbekommen. 28-> 16 nm ist ein extrem großer Sprung. Mindestens die doppelte bis dreifache Performance kann man erwarten - nicht 2016, aber am Ende des 16nm Zyklus.

Unwahrscheinlich dass Nvidia oder AMD 600mm² Chips 2016 bringen.

Selbst ein GM204 sollte sich aber in 16nm auf (sagen wir mal Faktor 2) also~200mm² schrumpfen lassen. Alternativ packt man bei GPU eben >doppelte Shader drauf bei dann wieder 400mm².

Bei AMD natürlich genauso. Eine Fiji wäre damit nur etwa 300mm² groß. Umso wichtiger dass das Frontend die Masse an Shader gut füttern kann.

Jedenfalls kann man CPU und GPU was Fertigung angeht 0 vergleichen. CPU skaliert bei gleicher Kernzahl nur über Takt. Lediglich im Server Segment macht man das über die Breite (wie bei GPU) -> deswegen hier auch >20 Kerne in 14nm.
Eine GPU wächst schon immer über die Breite (also vor allem mit der Fertigung) , ergo Anzahl der Ausführungseinheiten. Auch der Takt wurde etwas nach oben geschraubt, gerade bei Maxwell.
 
Zuletzt bearbeitet:
max_1234 schrieb:
Ich fänds schöner wenn man (du) endlich mal richtig lesen würde abstatt imner gleich persönlich zu werden ;)

Ich habe richtig gelesen. Du schreibst, dass das neue Fertigungsverfahren von Intel 1,5% bringt. Wo ist denn da bitte der Leistungszuwachs durch mehr Grafikkerne und die bessere Effizienz berücksichtigt? Vielleicht hast du dich auch nur komisch ausgedrückt ?!?
 
Zuletzt bearbeitet:
Krautmaster schrieb:
ui, setzen 6. Also so viel Unwissen hab ich bei dir nicht erwartet.
Uih da spricht aber jemand große Worte.
Und das ganz ohne "Schade"? Ist mal was neues.

Setzen, 6 ;)

@Doc
Weder AMD noch Nvidia werden ihre bestehenden Produktlinien selbst angreifen. Diese werden langsam und fortlaufend durch neue ersetzt, aber bestimmt nicht von heute auf morgen in den Schatten gestellt.

Kurz: Der GPU Markt ist bereits stagniert. Außer mehr Effizienz wird sich nicht mehr viel tun.
You know it, da könnt ihr so viel verdrängen oder gegenreden wie ihr wollt :D

mfg,
Max
 
Zuletzt bearbeitet:
das Fertigungsverfahren bringt im besten Fall keine 1,5% sondern bis 300%, ausgegangen von realistischen Angaben der Fertiger und 28-> 16nm. (28*28) / (16*16)... = ~3.

Bei 40 nm -> 28 hatten wir 2,04 als Faktor.

Schaut man sich die Karten an muss man etwa die GTX 980TI (GM200) mit der letzten fetten 40nm Karte vergleichen GTX 580 (GF110).
Da haben wir teilaktive 600mm² vs vollaktive 520mm² - also vergleichbar, bei einer Performance von etwa Faktor:

GTX 580 -> *1,64 -> GTX 780 -> *1,20 - > GTX 780 TI -> *1,51 -> 980 TI

==> 1,64*1,2*1,51 = ~ 3x Performance.


Die Taktraten sind aber auch höher, rausgerechnet sind das 1177MHz bei der GTX 980 TI und ~800 Mhz bei der GTX 580 also etwa Faktor 32% mehr Takt.

Eine GTX 980 TI bei den Taktraten einer GTX 580 hätte also etwa 32% weniger Leistung, ergo

==> 1,64*1,2*1,51 * Taktkorrektur (0,68) = ~ 2x Performance, also fast genau linear zur Fertigung von 40 nm -> 28nm.

Genau deswegen sind die GPU generell über die Fertigung sehr gut abschätzbar.

Edit:
+1,5% Leistung bei 16nm zu erwarten ist also schlicht Unfug. Geht man von idealen 16nm aus, dann würde sich die DIE Fläche dritteln. geht von von realistischeren Faktor 2 aus bleibt der Sprung dennoch riesig.

AMD und Nvidia werden nicht in die Vollen gehen, nicht direkt ab Start. Das macht Nvidia vielleicht mit der nächsten TESLA GPU die dann später als TITAN kommt. Beide werden kleine Brötchen backen da 16nm lange Bestand haben wird. Technisch möglich wäre eine 3x so fixe GPU also schon heute, aber nicht wirtschaftlich.
Man packt also salopp gesprochen zb. über die nächsten 4 Jahre scheibchenweise 25-50% drauf um eine "next Gen" zu suggerieren um am Ende der 16nm etwa die dreifache Leistung eines heutigen 500mm² 28nm Chips zu haben ;)

Anzunehmen, dass die nächsten GPU bei Nvidia wie bei AMD eher klein und sparsam werden da 16nm sicher wieder etwas optimiert werden müssen. 16nm würde vermutlich such schon lange gehen, aber auch hier heißt es einfach nicht wirtschaftlich.
Wüde mich nicht wundern wenn Nvidia und AMD ihre GPU genau absprechen. Anders wäre es schon krasser Zufall wenn am Ende +- 5% Performance rauskommen (in einer Leistungsklasse) wenn man die Option hat seine GPU irgendwo zwischen 200mm² und 500mm² anzusiedeln.
Keiner weiß aktuell ob Nvidia / AMD auf sparsame GPUs gehen (zb + 10% Shader bei deutlich weniger Fläche und Vebrauch) oder ob sie gewagtere Schritte gehen da 10nm "nahe" sind... also zb +50% Shader und Leistung bei ähnlichem Verbrauch wie aktuelle Gen.
Ergänzung ()

max_1234 schrieb:
@Doc
Weder AMD noch Nvidia werden ihre bestehenden Produktlinien selbst angreifen. Diese werden langsam und fortlaufend durch neue ersetzt, aber bestimmt nicht von heute auf morgen in den Schatten gestellt.

Kurz: Der GPU Markt ist bereits stagniert. Außer mehr Effizienz wird sich nicht mehr viel tun.

der stagniert genau wegen der 28nm Fertigung und deren langen Beständigkeit. Auf 20nm hätte man gehen können, der Schritt war aber unwirtschaftlich. Es ist eine rein wirtschaftlich bedingte Stagnation da de Fertigung teurer wird. Das Pulver für 28nm war zu schnell verschossen.
Mit Hawaii und GTX TITAN bzw GK110 war die Luft quasi raus, ein 500mm² Chip kann man schwer deutlich toppen außer man setzt den Chip (bereits vorab) wie bei der GTX 780 mit niedrigem Takt an, deswegen auch die massiven OC Fähigkeiten. -> Handbremse, künstlich.

Sobald 16nm mal angekommen ist gehts auch mit der GPU Leistung wieder voran, sofern es eben wirtschaftlich ist und TSMC Preise ermöglich die AMD / Nvidia große DIE erlauben.

Edit:
Selbst mit aktuellen 28nm Chips kann man fast noch ne Generation rausprügeln sofern man muss. Quasi eine GTX 1080 mit voll aktivem GM200 bei 1350-1500Mhz. Setzt etwa 35% auf eine GTX 980 TI drauf und kann mit 12 GB daherkommen.
Das kann Nvidia in 28nm günstiger kommen als ein gleich schneller 3x kleinerer Chip in 16nm. Wird man machen müssen wenn 16nm zu teuer bleiben (zb. wegen Schwierigkeiten bei der Fertigung bei TSMC)
 
Zuletzt bearbeitet:
@Kraut:

Man kann nicht einfach wegen neuen Fertigungsverfahren, die theoretisch die doppelte Density ermöglichen mit derselben Architektur diese auch voll ausfahren, denn zumeist machen kleinere Fertigungsverfahren neue Hotspots/höhere Leckströme. Außerdem skalieren GPUs nicht immer gut über ein Plus an Shadern.

Wir werden mMn wohl zuerst von beiden Herstellern Chips mit niedriger Transistorendichte sehen, die keine Leistungsrekorde ausschöpfen werden. Erst am Ende des 16/14nm-Zyklus wird es durch neue/angepasste Architekturen zu wirklich grösseren Leistungssprüngen im Vergleich zu heutigen Karten kommen.
 
Krautmaster schrieb:
Beide werden kleine Brötchen backen da 16nm lange Bestand haben wird.

Genau das mein ich doch seit X Beiträgen in X Themen.
Dazu gesellt sich folgendes:
NVIDIA-HBM-Memory-Crisis.jpg


Und jetzt noch die Meldung dass Nvidia mindestens 16GB HBM2 Speicher auf den Enthusiasten-Karten verbauen möchte. Das wars mit der zusätzlichen Effizienz! Leistungssteigerung nur über mehr Transistoren .. yay.

mfg,
Max
 
Zuletzt bearbeitet:
mit dem Speicher und dessen Bandbreite hat das wenig zu tun. Selbst eine Karte mit 2x der Rohleistung einer GM200 hätte mit dem bestehenen GDDR5 vermutlich ausreichend Bandbreite. Es würde vielleicht etwas limitieren,aber sicher nicht die Chipleistung komplett ausbremsen. Vor allem nicht im Gaming Umfeld.

Das Diagramm bezieht sich ja rein auf die Speicherbandbreiten, klar, da wird Nvidia auch im High End / Tesla Segment auf absehbare Zeit einen Nachfolger von GDDR5 brauchen.
 
Zurück
Oben