News Bilder der finalen Nvidia GeForce GTX 680?

In den Release Notes von AIDA64 steht folgendes:

GPU information for nVIDIA GeForce GTX 670M (GF114M)
GPU information for nVIDIA GeForce GTX 675M (GF114M)

In der englischsprachigen Wikipedia wird das bestätigt!

Die Nvidia Homepage gibt noch keine genaue Auskunft. Du kannst aber sicher sein, dass die erste Kepler MobilGPU ein noch breiteres Medienecho erzeugen würde.
Ergänzung ()

HPC Master schrieb:
Auf der deutschen Produktwebseite Hawkforce.de ist die Nvidia GTX675M 2GB GDDR5 noch rot markiert!

http://www.hawkforce.de/product_info.php/info/p174_LUNA-P150EM.html

Naja, Hawkforce ist ja jetzt auch nicht gerade ein Unternehmen von Weltruhm!^^

Die Falschmeldungen der Redaktionen liegt einfach an einer fehlerhaften Pressemitteilung seitens Hawkforce!
 
HPC Master schrieb:
Hmmm, OK kann sein - sind nun wohl doch noch nur die 40nm Fermi's...

Wow du schreibst dir hier echt einen Mist nach dem anderen zusammen. :D Davon dass du ewig fettgedruckt schreibst wird es auch nicht richtiger.
 
Bei Hawkforce schreiben sie ja nur GTX 675M, von Kepler steht da doch gar nix - das ist Interpretation eines Namens durch eine Redaktion. Jetzt rate mal warum wir damals schon geschrieben haben, dass es vermutlich gar nicht Kepler sein wird sondern Fermi: https://www.computerbase.de/news/pr...-bridge-notebooks-mit-geforce-gtx-675m.34699/ Kepler war einfach Wunschdenken.

Aber was Nvidia da bei Mobile abzieht wird echt übel. Paar Sachen werden in hoher Bezeichnung alte Chips haben, paar in niedrigerer neue. 640M ist ja GK107 in 28 nm wie es scheint, aber 670M, 675M und auch 680M wird wohl alles GF114. Dazu kommen sicher noch paar Dinge, die kein Mensch mehr verstehen wird.
 
zumal Kepler mit 386 Shadern wohl nicht so schnell wäre (siehe GT 640M). Bei der GT 640M wird ja der Shadertakt als Chiptakt korrekt ausgelesen und Chiptakt in GPUz falsch angezeigt.

1250 Mhz wären auch mit 28nm etwas zuviel des guten für den GK107 - nehme ich jetzt einfach mal an.
 
Zuletzt bearbeitet:
Die ganzen Tooes kannst alle vergessen noch bisher. Dadurch sind auch so krumme Zahlen für die GTX 680 in Umlauf gekommen, seien es 705 MHz, oder 1411, oder oder oder. Alles weil die Tools versagen aber keiner nachgedacht hat, dass es eben nur ein Auslesefehler sein könnte und halt auch ist.
 
Zuletzt bearbeitet:
Naja, die 1GHz Core clock muss nicht unbedingt erfunden sein, die 7970 kann man ja auch per Hand bis auf 1,2GHz hochzüchten bzw AMD hätte ja auch so ein "4890" Modell bringen können, wo die clocks nochmal ordentlich angezogen werden.
Lediglich das mit dem Turbo halte ich für sinnlos. Als ob Nvidia wegen den 50MHz das feature einbauen würde.
 
mir gings eher um die sehr ungeraden Taktraten und diesen kleinen "Turbo". Für ne "offizielle" Folie eher komisches Layout und komische Daten.
 
Krumme Taktraten gab es bei Nvidia ja immer, das wäre nicht ungewöhlich. Und das eine Performance-Karte 1 GHz Chiptakt hat ist es dank 28 nm auch nicht. Jaa das mit dem Turbo wird interessant, aber da hängt halt noch viel mehr dran als es augenscheinlich ist. Aber ein NDA ist ein NDA ist ein NDA ist ein NDA^^
 
Volker schrieb:
Krumme Taktraten gab es bei Nvidia ja immer, das wäre nicht ungewöhlich. Und das eine Performance-Karte 1 GHz Chiptakt hat ist es dank 28 nm auch nicht. Jaa das mit dem Turbo wird interessant, aber da hängt halt noch viel mehr dran als es augenscheinlich ist. Aber ein NDA ist ein NDA ist ein NDA ist ein NDA^^


Richtig ! ^^
 
Oh, interessant :D
Bin mal gespannt, was da noch so alles kommt, womit absolut KEINER gerechnet hat.
Ich vermute ja immernoch, dass das mit der "670Ti" und dem "Leak" nur Selektion der undichten Stellen war und die wahren und genauen Specs zur 680 nur die wirklich vertrauenswürdigen Sites haben.

Aber rede dich lieber nicht um Kopf und Kragen, sonst gibts bald keine Karten mehr für euch und das wäre fatal :(
 
Dass der Turbo fps-basiert arbeiten kann, steht mehr oder minder fest - es gibt eine entsprechende Option in einem (noch unfertigen) Benutzerdialog, der im aktuellen Treiber versteckt ist.
Ich glaube ja, dass es nicht einfach nur hochtakten bis zur TDP ist (also die ganze Karte), sondern einzelne Clockdomains (TMUs, ROPs, ALUs usw.), um die TDP maximal auszunutzen.
 
Ich freu mich schon tierisch auf den Test. Wie es scheint gibt euch Nvidia ja genug Zeit um die Kepler-Karte(n) zu testen, was ich für sehr löblich halte.
Nur uns "Normalsterbliche" so auf die Folter zu spannen passt mir irgendwie gar nicht. :D

Immerhin gut zu wissen, dass dieser Turbo-Modus tatsächlich existiert. Bin schon gespannt was es damit auf sich hat, sowas gab es bei Grafikkarten ja bisher noch nicht.
 
Naja ich weis ja nicht wegen dem gehype ...?
Bin selbst nicht Fanboy, aber finde nv nicht so schlecht zumindest bisher für mich das bessere paket immer gehabt.
Trotz allem bin ich wohl schon zu alt als hier irgendwelche hypegefühle aufkommen zu lassen vorallem 7 tage vor dem derzeit gerüchtemässig angesetztem termin :D .

Naja bei der 670ti wurde ja von einem turbo von den 705 mhz auf 950 mhz berichtet.
Wenn man jetzt annimmt das diese 705 mhz ein Ausslesefehler sind, könnten aber trotzdem die 250mhz mehr (Turbo) am Core (Shader auch ?) richtig sein nur halt von anderen zahlen ausgehend, was doch ganz ordentlich wäre.
 
wobei der Aussage ja direkt ein Shot der Karte folgt, was schon mal besser ist als eine Story vom Pferd ;)

25% wäre mehr als ich dem GK104 zugetraut hätte.
 
Keine Ahnung, ich kann das alles immernoch nicht richtig einordnen, zumal ja die Nvidia PR von der 7970 mehr erwartet hatte. Nicht auszumalen wie grausam peinlich das wäre, wenn sie "nur" gleichauf oder minimal schneller wäre, zumal ich mir das persönlich nicht vorstellen möchte.
 
Es kann doch sein, dass nVidia von AMD das selbe erwartet wie von sich selbst. Anscheinend zielen sie auf eine Leistungsverdopplung der Mainstream-Fermi-Karten bei ähnlichem Stromverbrauch. Da AMD aber nur 40% Mehrleistung dagegen geschafft hat, entsteht nun etwas, was wohl dazu geführt, warum die Köpfe der Grafikkartesparte in den letzten Monate gegangen sind...
 
Was mich interessieren würde ist, ob Nvidia es endlich hinbekommt im SLI Betrieb die zweite Karte abzuschalten, wenn es ins Idle geht und ob es noch andere technische Verbesserungen gibt. Abgesehen von der Turbo Funktion und der (hoffentlich stark) höheren Leistung?
 
Zurück
Oben