News Hinweise auf Nvidias „Maxwell“ im 1. Quartal 2014

Aktuell habe ich GTX 770 für 220 €: 270€ - 50€(aus 3 Spiele) gekauft. Wenn ich neue Karte brauche, dann sollte diese Karte Leistung der GTX 780Ti haben, also 40-50% mehr Leistung gegenüber GTX 770. Wenn der Preis 350 € liegen würden, dann ist die Karte so gut wie gekauft.
Aber wie man von Nvidia erwarten kann, wird der Preis deutlich höher liegen. GTX 780Ti kostet ja deutlich über 550€ ^^.

Es ist schon eine Überraschung für mich, dass Maxwell so schnell rauskommt. Aber ich vermute mal, dass ich erst nächstes Jahr zum Weihnachten neue Karte hole, da neue Generation von AMD auch rauskommt und damit es Preiskampf gibt. :D
 
Fhat the Wuck schrieb:
Was man allerdings bedenken muss ist, dass nVidia um DPFP zu berechnen 2xSPFP braucht. SPFP (Single Precision Floating Point) ist das, was man für die Spiele braucht, DPFP (Double Precision Floating Point) ist für Wissenschaftliche Bereiche gedacht.

Kepler hat extra FP64-Einheiten. Beim GK110 sind es 64 pro SMX-Block und beim GK104 und kleiner sind es 8 FP64-Einheiten pro SMX-Block.

Mal schaun was kommt, wird es 20nm werden wir definitv keinen großen Chip im ersten Quartal sehen.
 
Was wir hier ganz vergessen, DX 11.2, das fehlt ja NV im Moment auch noch. Das könnte auch ein Grund für einen frühen Maxwell sein. Lange kann NV die DX 11.0 Fahne wohl nicht mehr hoch halten wenn AMD mit Mantle los legt, oder NV weis jetzt schon das man nachlegen muss nach Mantle.

Ein früher Start wäre auf jeden Fall viel wert, G-Sync würde damit dann auch früher starten und das kann nur positiv sein für uns.
 
Na toll und genau Mai 2014 ca. will ich meine dann 3 Jahre alte HD 6950 2GB raushauen.
Dann wirds wohl wieder eine nVidia werden!
 
Aaaaaaaaaalso Leude . . .

. . . kommt nur mir das so vor, daß ich schon seit diversen Jahren das Gefühl habe,
daß diese sogenannten Fortschritte in Sachen Grafik-Performance bzw. -Effizience
absolut nur noch Häppchenweise und für immer mehr Kohle an uns durchgereicht werden ???

ICH jedenfalls finde all das absolutamente ZUM KOTZEN was da seit Jahren veranstaltet wird !!!

Richtig wundern muss man sich darüber allerdings auch nicht, denn die Kapitalfaschisten werden
ja auch spätestens im 4-Jahres-Zyklus immer wieder neu gewählt ?!?

. . . zum Teufel mit der Schmerzgrenze
:rolleyes:
 
Smagjus schrieb:
Angeblich soll die Verfügbarkeit der neuen AMD Karten darunter leiden, weil diese massiv zum Litecoin Minen verwertet werden. Inwiefern das zutrifft kann ich nicht sagen.

Das trifft zumindest auf Länder zu, in denen Strom günstig ist. Inwiefern sich das in Deutschland rentiert, weiß ich nicht. Ich stelle es mir aber nicht sonderlich rentabel vor. In den USA hingegen sind die Preise für AMD Karten explodiert, die kosten dort wesentlich mehr als hier.
Dass diese Nachfrage sich auf den globalen Markt niederschlägt, könnte ich mir allerdings auch vorstellen.
 
Wäre ja schon mal ein riesiger Fortschritt wenn es nicht wieder eine komplette rebranding serie wäre. Ich halte die news für eine schlechte Spekulation. Wenn der Nachfolger der nächsten Generation in finfets kommt, wirdmaxwell in 20 nm kommen. Sicherlich xann nicht in q1
 
PC-SCHAMANE schrieb:
. . . kommt nur mir das so vor, daß ich schon seit diversen Jahren das Gefühl habe,
daß diese sogenannten Fortschritte in Sachen Grafik-Performance bzw. -Effizience
absolut nur noch Häppchenweise und für immer mehr Kohle an uns durchgereicht werden ???

Ja.
 
Im HPC Markt vllt, bis ein Vollausbau 500mm^2 Maxwell bei euch aufschlägt dauerte noch gut 1-2 Jahre, auch wenn der Chip sicher bereits fertig ist. ~6144 Shader schwirren mir im Kopf rum, bei 20nm auch weniger das Problem. Damit passt die Leistung auch zu den Angaben von Nvidia.

AMD dürfte mit dem 20nm Chip auch quasi fertig sein, beide warten in erster Linie auf die Wirtschaftlichkeit des 20nm Prozesses... und steigen vermutlich mit kleinem Chips um 300mm^2 im Consumermarkt ein. Rechne mit Q3 2014
 
Fein, fein, fein & Vollausbau juckt mich gar net^^ ...jedenfalls bzw. vermutlich eine würdige Ablösung für GK104.

@Kasmo
Denke auch mal, daß DX11.2 *supported wird* ...fehlt halt dann nur noch ein passendes OS dafür & natürlich auch entsprechende Soft.^^
 
Ich denke mal, da werden wieder Parallelen zu Fermi & Kepler vorhanden sein... also ca. ein Jahr später die *Refreshes* mit Vollausbau.
 
Für mich klingt das wie die Nebelkerze vor der GTX 480, hauptsache die Leute vom Kauf abhalten...
 
Wenn es nicht eilt, dann kann man sich doch entspannt zurücklehnen & den Markt beobachten?
3-4 Monate Zeitspanne is doch nix ...wie gesagt, aber nur wenn es nicht eilt.^^
 
Doppelte Genauigkeit zu erhöhen ist bei Nvidia Karten nicht schwer die sind da ohnehin sehr schwach
 
Für mich klingt das wie die Nebelkerze vor der GTX 480, hauptsache die Leute vom Kauf abhalten...
Zumindest die GTX 780TI 3GB lässt mich auch stutzig werden, meistens hat man den Vorgänger künstlich kastrieren müssen, wenn der Nachfolger besonders schwach war, oder dadurch gefährdet worden wäre.

G92 512MB - GTX 260 ( G92 1GB hätte preislich eine GTX 260 vernichtet, erst später mit 55nm GTX 260 wurde der Schritt(1GB Verbot) dann als GTX 250 1GB vollzogen)
GTX 590 1,5GB - GTX 680 2GB (klare Sache ein 590 2x3GB hätte leichtes Spiel gehabt)
GTX 690 2GB - GTX Titan (GTX 690 2x4GB und die Titan hätte ein Problem gehabt)
GTX 780TI 3GB - GTX 880? (würde eine GTX 780TI 6GB eine mögliche GTX 880 4GB gefährden? Wir werden es schon bald wissen)
 
Xedo schrieb:
Das trifft zumindest auf Länder zu, in denen Strom günstig ist. Inwiefern sich das in Deutschland rentiert, weiß ich nicht. Ich stelle es mir aber nicht sonderlich rentabel vor. In den USA hingegen sind die Preise für AMD Karten explodiert, die kosten dort wesentlich mehr als hier.
Dass diese Nachfrage sich auf den globalen Markt niederschlägt, könnte ich mir allerdings auch vorstellen.

Ich arbeite bei einem Hardwarehandel und wir merken die ganze Bitcoin/Was-weiß-ich-Coin-mining Geschichte schon. Es kommt inzwischen mehrfach in der Woche vor, dass sich grade jüngere Leute einen Rechner zusammen stellen, wo man genau weiß wofür der gedacht ist ;). Warum sollte sonst jemand einen 50€ CPU + Board usw. kaufen, aber dann zwei R9 280X drauf packen^^. Vor ein paar Tagen hat jemand 10 solcher Rechner auf einmal gekauft bzw. die Hardware dafür. Manche kommen auch ganz offen und sagen sie wollen Hashwerte errechnen und bräuchten dafür einen Rechner.
Wie sehr sich das insgesamt auf die Preise niederschlägt weiß ich nicht, aber viele unserer Lieferanten haben keine oder nur noch wenige dieser Karten auf Lager.
 
BrainOtocho schrieb:
Wie sehr sich das insgesamt auf die Preise niederschlägt weiß ich nicht, aber viele unserer Lieferanten haben keine oder nur noch wenige dieser Karten auf Lager.

Hab ich vor Wochen auch schon gesagt, dass AMD mit den Referenzen momentan das Beste Geschäft machen, als den Herstellern nur die GPU zu verkaufen, weswegen AMD keine Custom frei gibt. Aber nö, dann kommt ja der Flame: " AMD versaut sich damit das Weihnachtsgeschäft" ... lach mich weg. Wie gesagt, die AMD Karten gehen weg wie nichts.

Allein in dem Mining-Forum wo ich unterwegs bin, haben hunderte sich 2-3x R9er in den Rechner gehauen und weitere Moppern, wieso AMD keine ausreichenden Stückzahlen liefern kann, weil die Nachfrage immens hoch ist! AMD kommt da sehr spärlich mit dem Ausliefern der Referenzen nach, überall gibt es nur noch sehr wenige oder sind am gleichen Tag gleich wieder ausverkauft.

Die R9 Karte ist 60% günstiger, als z.B. die kleine 300 C Monarch Karte und fast 80% als die große.
 
Zuletzt bearbeitet:
Wow nicht schlecht. Ich würde jetzt so kurz vor Weihnachten nicht mehr kaufen und warten, der März ist ja bald. Dann darf meine Voodoo 3 2000 endlich in Rente gehen außer AMD legt bis dahin nach xD
 
Zurück
Oben