News Debüt von Nvidias „Kepler“ Ende März als „GeForce GTX 680“?

Herdware schrieb:
Auf was für einer GPU soll die GTX660 basieren? Die eigentlich dazu gehörende GK104 stecken ja schon in der GTX680.

Man kann ja den GK104 mutmaßlich wie auch die vorherigen Chips beliebig beschneiden.
GK107 gilt auch als gesichert, einen GK106 würde ich auch nicht ausschliessen wollen.
 
aktuelle stecken in gtx560 448 bis gtx580 auch die selben gpus (gf110), also warum nicht auch mit dem gk104? ;)
besser wäre aber, wenn für die gtx660 eine kleinere gpu "reicht", da diese mutmaßlich auch weniger verbrauchen würde und niedrigere preise ermöglichen (stichwort preiskampf)
 
daFlox schrieb:
Überflüssiges Zitat entfernt *klick*

Krautmaster schrieb:
Überflüssiges Zitat entfernt *klick*

lol wenn ich auf kepler warte kann auch gleich auf die nächste generation warten u.s.w und ich werde mir ganz sicher nicht in den arsch beißen nur weil kepler 5% schneller sein wird oder was weiß ich was und 500-600 EURO kosten wird
ich hab zwar keine ahnung was kepler kosten wird aber aufjedenfall wird das kein billiger spaß
und ich glaube auch nicht an den rückgang der preise.

und sieh dir mal die gtx 580 an wie hoch der preis immer noch ist und denkst du wirklich ich bekomme die sapphire 7950 oc version in 2 monaten für 300 EURo? niemalsssssss

ich habe jetzt meinen spaß mit meiner 7950 und die leute die warten sollen ihren spaß mit dem warten haben :D
 
Zuletzt bearbeitet von einem Moderator:
@ Athlonscout

Die Frage ist nur, ob Karten auf Basis dieser GPUs noch als 600er kommen, oder doch zusammen mit den "echten" High-End-Keplern gleich als 700er.

Es wird darauf ankommen, ob die GK110/GTX780 eher Mitte des Jahres oder doch erst deutlich später im 2. Halbjahr heraus kommen. Wenn die irgendwann im Juni/Juli kommen, bliebe zwischen der GTX680 und diesem Termin nicht mehr viel Zeit, um noch allzviele andere 600er zu vermarkten.
Wenn erstmal die ersten 700er auf dem Markt sind, wird Nvidia keine neuen 600er-Modelle mehr bringen, wiel die dann ja veraltet wirken würden.

Wie gesagt, das ist alles nur eine Vermutung von mir. Für mich riecht es einfach danach, dass die 600er-Generation unvollständig und kurzlebig sein wird, weil Nvidia im 600er-Nummernschema gar keinen Platz mehr für die kommenden High-End-Modelle vorgesehen hat.
 
Zuletzt bearbeitet:
Lars_SHG schrieb:
Wir, die die Apple Produkte nutzen, lassen die Hater in dem Glauben, das es so wäre - eigentlich ist es ja so, dass wir Apple Produkte kaufen, weil wir einfach nur ein Gerät wollen, an dem wir nicht viel einstellen müssen und was wir dann lange ohne Probleme nutzen können.
Logisch, wenn man etwas überbewertet, behält man es auch länger. Wäre wirklich gut wenns so wäre, ich fürchte nur, dass das nicht auf den Apple-User zutrifft. Der kann ohne das Neue nicht leben. Wie bei jedem Premium-Hersteller ist die macht der Mode/Trend so verführerisch, dass diese Art von Kunden, sich dem kaum entziehen können.
Witzig ist, dass du bei den Nvidia-Usern die Ratio in Frage stellst, bei dir selber und deinem Apple-Produkt alles dem Verstand zuschreibst. Mmmh, denke das ist ein sehr typischer Fall wie sich der Mensch dauernd selbst belügt. Es sind immer die anderen, bei sich selbst erkennt man die Inkosequenz nie.
 
Ich würde mich freuen wenn Nvidia ihre Grafikkarten bald rausbringen!
Dann werden hoffentlich die von AMD Preiswerter...

Denn >500 EUR für ne olle Grafikkarte würde ich nie ausgeben.
 
Witzig ist, dass du bei den Nvidia-Usern die Ratio in Frage stellst, bei dir selber und deinem Apple-Produkt alles dem Verstand zuschreibst.
Einfach, weil ich ja das Produkt gekauft habe nachdem ich wußte, was es leistet und was es kostet - den ich kritisierte, der wollte blind kaufen ohne das Details oder Preis bekannt sind!

Vielleicht bist Du aber auch nur einer der Hater, die ohnehin nur die eigene Einstellung rechtfertigen wollen ohne differenziert urteilen zu können oder zu wollen?

edit: nach unten
ich habe noch nicht einen Film oder eine MP3 konvertieren müssen in den vergangenen 4,5 Jahren in denen ich ein iPhone habe! Macht doch alles iTunes.
Kommt halt darauf an, was man macht. Ich bin in einem Alter, wo man keine Klingeltöne oder Videos mehr braucht.
 
Zuletzt bearbeitet:
Ohne viel einstellen zu müssen?
Was muss ich nicht alles konvertieren und installieren um Filme und mp3´s aufs iPhone zu bringen..
Hoch lebe der Massenspeicher - warum einfach wenn es auch kompliziert geht?

btt.

Hoffentlich wird es wieder eine anständige Karte mit mindestens 2GB VRAM, wird auch langsam wieder Zeit für ein neues System!
 
Verstehe Ehrlich gesagt immer das ganze blabla nicht wegen den Grafikkarten. Alles was über 23,9* FPS liegt ist für das Menschliche Auge ruckelfrei, deshalb haben Filme diese Geschwindigkeit.
Ob nun ein Spiel mit 30/60 wie bei HD läuft oder 1000FPS was bringt einem dass? Davon Registriert das Auge nichts. Die wenigsten Spiele haben Heute einen Nutzen davon, da die Engine garnicht so eine Hohe Leistung braucht. Dass erinnert mich an die PSU wo man sich ein 1KW Teil kauft und der Pc nur 300w Verbraucht oder Kunden die sich ein 6 Zylinder BMW Kaufen, in einer Stadt wohnen wo man nirgentwo mehr wie 70 Fahren darf und die vielleicht 3 mal pro Jahr auf die Autobahn kommen um da in der Baustelle mit 50 zuviel Geblitzt zu werden :D

NV ist schon eine ganze Weile hinterher, klar liefern die dann eine Karte ab die Schneller ist, nur wenige Wochen später Folgt dann eine AMD Karte die wiederrum Schneller ist.
Ich Kaufe was ich auch wirklich benötige um meine Aufgaben zu erledigen, nicht um auf dem Schulhof anzugeben, zumal meine Schulzeit 1993 endete :P

mfg
 
woher wisst ihr denn eigentlich alle das es eine GK110 geben wird und nicht nur eine GK104 und abwärts?
 
wertewandel
5 bildschirme anschließen wenn man bestimmte konfigs hat...
hat aber praktisch niemand und erst recht noch weniger die es sich extra angeschafft haben,
weil amd es jetzt bewerben musste als "den fortschritt".
Hast du eine Ahnung, schau mal wie oft gefragt wird nach 3 Monitor Systeme. Vllt betrifft das nicht gerade Games, aber oft genug Leute die fürs Arbeiten 3 Monitore brauchen.... Und da ist AMD eyefinity weit aus billiger als bestimmte Matrox Karten, oder 2 Karten der selben Version kaufen zu müssen.

amd ist der preis-leistungskönig. schon mit der 6000er serie herrschte da
ein gewaltiges missverhältnis
Weiters war die HD 6870 von Anfang an ein Preis/Leistung Sieger. Ich hab sie damals um ca 200 euro gekauft, jz kostet sie 140 euro. Vergleich die Karte mal mit einer 560ti oder 6950. Beide sind kaum schneller aber kosten um einiges mehr.
Das selbe Spiel HD 5770 und 6770. Weiteres die 6950 (=> 6970 unlock) die 100 euro weniger als die 6970 gekostet hat.
Eventuell nächstes mal Fakten bringen danke.

r4yn3
"Gleichzeitig mit dem Begräbnis der VLIW-Technik, scheint also auch die in letzter Zeit übliche "Small-Die-Strategie" begraben zu sein."
Ja die Rede war von einer Großen GPU, wenn man jz aber mit NV GPU größen vorhaben vergleicht, scheint mir dass man trotzdem kleiner baut.

dominiczeth
Seit der HD 3000 hab ich AMD Karten davor NV und davor Voodoo.
Mein Bruder hat ebenfalls lang noch NV gehabt, bis er sich letztens eine AMD gekauft hat.
Ich weiß nicht was ihr leute so macht, aber selten ein Treiber Problem gehabt, egal welcher Hersteller. Und ja omg falls es mal ein update gibt. Fragt mich halt steam ob ich den AMD Treiber aktualisieren will.
Das Einzige Problem dass mir bewusst einfallt war Age of Conan, das war echt störend, aber nach gewisser Zeit gelöst.

Herdware
Wie einfach könnte die Welt sein, wenn es das Marketing nicht gäbe.
(Nicht dass AMD was das angeht besser wäre.)
Weil die HD 7000 ja so schlecht vermarktet worden ist stimmsts ???
Kann mich gut erinnern wie einige hier Paperlunch, Paperlunch ect. Dann waren die ersten Karten gleich verfügbar...
Würden bestimmte Gerüchte bei Leichtgläubigen nicht Fuß fassen, wäre der Markt viel mehr ausgeglichen.
AMD hat momentan schon fast alle Modelle am Markt, und NV wird gerade mal sein erstes Modell vorstellen.

Unsinn, man will immer gewinnen in jeder Leistungsklasse! Was soll das denn für eine Einstellung sein - wir bauen jetzt mal eine Graka, die die obere Mittelklasse abdecken soll - aber langsamer als die Konkurrenz sein soll? - So denkt niemand!
Sollte man nicht eher Fragen, wie muss ich eine Karte zamstellen die schnell ist, günstiger ist als die Konkurrenz aber gleiche Performance liefert, und kaum einen Unterschied merkbar macht?
Deine Einstellung klingt ja schon fast nach, komm bauen wir ein Monster dass den Gegner in allen Bereiche übertrifft, auch stromverbrauch

Gedanken, Gedanken, ob wir je erfahren werden wer richtig liegt.......?...
Ja wird man Erfahren, aber wenn das rauskommt ist man schon einige Generationen weiter. Ist ja schon einiges bekannt geworden, doch Vergangenheit interessiert hier wenige.
 
Zuletzt bearbeitet:
JonnySD schrieb:
Überflüssiges Zitat entfernt *klick*

Also Du bist ja echt DER Troll des Tages:freak:
Wenn Du Nvidia unterstützen willst dann mach es nicht mit so besch... Aussagen!
Ich habe gerade in einem Spiel Probleme mit flimmern der Schatten und ob das vom Treiber oder vom Spiel (NFS Shift 2) herkommt kann ich nicht beurteilen. Wie du an meiner Sig erkennen kannst sind meine Settings ganz und gar nicht 0815! Ich finde die AMD Treiber dufte!
Das hartnäckige Gerücht das AMD (damals ATI!!!) Treiber schlecht sein sollen entstand zu einer Zeit als Du (das wage ich mal zu behaupten!) noch nicht mal PC buchtstabieren konntest:rolleyes: Oder hast Du mal mit einer ATI Rage Fury 128 gedaddelt?! Da gab es Treiberprobleme (Da zu dieser Zeit aber der 3D Markt nicht standardisiert war, war das auch normal, Stichwort: Vodoo, Open GL, Direct 3D, Kyro, jeder kochte sein Süppchen...), danach (zumindest in meinem Umfeld) nicht mehr!

Zu den Nvidia Treiber: Ach die werden nur mit Wasser gekocht und nicht von Nachtelfen bei Vollmond programmiert:freak: Hast DU mal versucht eine Nvidia 7950GX2 zu installieren? Ich denke nicht! DA hast du Probleme, und nicht kleine! Wie ein zurückgesetzter Nvidia Treiber mit Ausfall der Windows Aero Oberfläche aussieht kann ich Dir gerne diesem Notebook wo jetzt gerade dieser Text entsteht zeigen, das habe ich leider fast täglich. Adobe Flash, Citrix Session, WmWare Workstation und noch ein wenig zus. Last und schon sagt die (möchtegern) Grafikkarte tschüss....

Also komm uns nicht mit AMD immer schlecht und Nvidia immer gut, das ist ein Märchen;)
 
Zuletzt bearbeitet von einem Moderator:
@ C4rp3di3m

Das wage ich doch schwer zu bezweifeln. Ich bemerke jedenfalls in den allermeisten Spielen einen sehr großen Unterschied zwischen z.B. 25FPS und >40.
Je nach Spiel (vor allem Ego-Shooter) sind sogar 60Hz nicht das Ende der Fahnenstange. Deshalb haben sich viele Zocker ja so schwer damit getan, sich von ihrer alten Röhre zu verabschieden.

Früher galt übrigens mal als Faustregel für Animationen, dass schon 10 Bilder für Sekunde ausreichen würden. :D

@ Sandy.de

Das sind natürlich alles nur Gerüchte. Aber diese Gerüchte sind schon ziemlich konkret und übereinstimmend.

Der Normalfall wäre ja gewesen, dass Nvidia zuerst mit einer GK100 (G=GeForce, K=Kepler, 100=Top-Modell) startet, dann kleinere Modelle (GK104, GK107, GK109) nachschiebt und ca. 1 Jahr nach GK100 käme dann der überarbeitete GK110 usw.

So wird es diesmal aber ziemlich sicher nicht ablaufen. Die GK100 wird es wohl gar nicht geben sondern erstmal nur die Performance-Variante GK104, dafür aber schon relativ bald (ab Mitte des Jahres) eine GK110.

Ob das wirklich so kommt, weiß derzeit aber wahrscheinlich nicht mal Nvidia selbst mit Sicherheit.
 
Zuletzt bearbeitet:
Ich wechsel seit meiner ersten S3 Trio mit 1MB Ram immer zwischen ATI (AMD) und NVidia. Von daher mache ich mir nichts draus, wer gerade weit oben steht. In meinem gesetzen Preislimit müssen sich beide Hersteller messen. Das ist in meinem Fall bei 150 - 200€. Dazu will ich auch die aktuelle Generation haben, irgendwo verständlich. AMD hat aber derzeit kein Produkt in meinem Preisrahmen, der mir zusagt.

Dazu kommt, dass man sich ungern verschlechtern will. Meine Freundin bekommt in paar Monaten mein System, weil ihres schon 6 Jahre alt ist. Dann gönn ich mir schon wieder was neues. Deshalb muss die neue Graka mind die 6850 toppen, besser die 6870 und sollte schon zwingend weniger verbrauchen, denn von 40nm auf 28 ist schon ein enormer Shrink. Wenn ich dann das Ergebnis noch unter Last leise gekühlt bekomme, oder sogar Passiv, das wäre doch ein Traum^^ Irgendwie schreit es in mir nach einem diesmal wirklich leisen PC... ohne dumpfes brummen...

Von daher hoffe ich persönlich sehr, dass NVidia ein passendes Stück Hardware für mich bereithält, oder AMD bringt noch ein Zwischending raus, über 77** und unter 78**. Denn Preislich liegen die einfach viel zu weit auseinander...
 
Kann auch an was anderem liegen, aber wenn ich Filme auf meinem PC ansehe, dann kommen mir einige ruckelnd vor, trotz 24 fps. Von daher sind mir mehr fps auch lieber.
 
. Nvidia hat AMD für schlappe 2 Monate das Feld überlassen
Dezember wurde sie vorgestellt, mitte jänner war sie ca verfügbar, somit 3 Monte würde ich eher sagen, oder täusch ich mich

KM
Der Turbo zieht ja "nur" wenn ich gezielt sage, dass die Karte sich wie ne OC Karte verhalten darf. Wenn ich also zb n eigenen guten Kühler draufpappe kann ich direkt sagen das das Limit statt 220W 260W ist. Ist doch nice.

Was ich hoffe :D dass der Turbo auch ordentlich funktioniert :D Sicherlich ist das nicht mit Prozessoren zu vergleichen, aber AMD FX ist ja ein gutes BSP wie ein Turbo auch brach liegen kann, wenn die Software/Optimierungen nicht passen.
Ich bin schon sehr gespannt wie das funktioniert (im Detail ^^)

Wichtigster Punkt bei einer Grafikkarte ist die Performance. Die Kunden kaufen idR das schnellere Produkt (so sollte es jedenfalls sein...). Man wird kaum freiwillig ein Produkt gegen die Konkurrenz platzieren, das langsamer ist.
Das ist doch die reihne Kunden Sicht. Man könnte auch die MEGA GPU bauen, wenn sie kaum auf den markt kommt und unendlich teuer ist, hat man zwar Werbung gewinn könnet man trotzdem nicht wirklich machen. Anders als ne Karte die vllt 10% langsamer ist, günstiger zum produzieren ist, und etwas günstiger ist (Preis)
Somit ist es weit aus komplexer als nur abzuschätzen die schnellste Karte zu haben.
 
Zuletzt bearbeitet:
summer46 schrieb:
lol wenn ich auf kepler warte kann auch gleich auf die nächste generation warten u.s.w und ich werde mir ganz sicher nicht in den arsch beißen nur weil kepler 5% schneller sein wird oder was weiß ich was und 500-600 EURO kosten wird
ich hab zwar keine ahnung was kepler kosten wird aber aufjedenfall wird das kein billiger spaß
und ich glaube auch nicht an den rückgang der preise.

darum geht es nicht.

Die HD7970 / HD7950 sind die ersten Karten die in einer neuen Fertigung kommen, einen Shrink. GPU skalieren nahezu perfekt mit Erhöhung der Recheneinheiten etc.

Die Karten sind jetzt keine 2 Monate lieferbar, und absolut konkurrenzlos. Dementsprechend der Preis. Es war aber abzusehen, dass die Konkurrenz zeitnahe nachzieht. Deswegen kauft man am besten eine neue GPU

1. nach einem Shrink da sich hier die Leistung fast oder mehr als verdoppeln kann
2. am besten wenn beide Hersteller auf denselben Prozess zurückgreifen können und sich so konkurrieren.

Wenn Kepler erst Ende des Jahres in 28nm käme wäre das was anderes. Aber wegen 2 Monaten hätte ich jetzt keine 400€+ oder gar 500€ + ausgegeben. Ich hätte auf beide Parteien gewartet und geschaut welches neue 28nm Produkt das "rundere" ist.

Dieses mal ist es aber nicht so wild da weder der GK104 noch Tahiti den Prozess (28nm) voll ausfährt. Die HD5870 hat eher gezeigt wie man 2 Jahr über den kompletten Prozess (40nm damals) eine super Karte haben kann die vorne mitspielt und in P/L kaum nachlässt. ;)

@FPS

Ich sage mal 40 FPS ist ne brauchbare Einstellung. 25/30 sind zu wenig, das ruckelt bzw wirkt nicht so flüssig.

@Eyefinity

Hoffentlich löst das Nvidia besser. Ich würde gerne 3 TFTs (2 davon mit DP) betreiben an meine HD6950, aber es will einfach nicht.

@pipip

ja du täuschst dich

Mitte Jan verfügbar -> 1 Monat Mitte Febr. -> 1 Monat Mitte März ==> 2 Monate (vorausgesetzt der GK104 is am 32.3. lieferbar)
 
C4rp3di3m schrieb:
Verstehe Ehrlich gesagt immer das ganze blabla nicht wegen den Grafikkarten. Alles was über 23,9* FPS liegt ist für das Menschliche Auge ruckelfrei, deshalb haben Filme diese Geschwindigkeit.

http://www.boallen.com/fps-compare.html

Du siehst da keinen Unterschied?
Falls Du wirklich nix siehst, dann merkst Du es spätestens bei der Steuerung. Schnelle Shooter, Renn-Sims .... kannste bei 30 FPS voll vergessen weil die Steuerung viel zu träge für vernünftiges Gaming ist.

Und bitte ... die Filme haben diese Geschwindigkeit damit sie "nicht real" aussehen. Damit sie Dich in ihren Bann ziehen, damit sie aussehen wie sie aussehen, den typischen Film-Look bekommen. Schau Dir doch mal einen miesen Porno an der mit eine billig-HD-Cam und 60 FPS gedreht ist. Dann weißte genau warum die Filme-Macher 24 FPS bevorzugen.
 
Zuletzt bearbeitet:
@HisN

ich finde extrem gut sieht man es in der XBMC GUI - je nach TFT kann ich hier von 24p über 30 50 und 60hz wählen. 50 / 60 hz ist fast egal, aber 30 hz ruckeln noch weit mehr als bei dem kleinen Demo in deinem Link.

Kommt aber wie gesagt aufs Game an... bei Anno 2070 wirds egal sein ob 25 oder 50 hz.
 
Zurück
Oben