News Debüt von Nvidias „Kepler“ Ende März als „GeForce GTX 680“?

"soll hierbei der Spielraum bis zur maximalen Leistungsaufnahme der Grafikkarte genutzt werden, um den GPU-Takt im Betrieb automatisch anzuheben, bis entweder ein bestimmter Wert oder die Grenze der spezifizierten maximalen Leistungsaufnahme erreicht wird."

Nun haben aber nicht alle GPUs die gleiche Spannung unter Last anliegen, Stichwort VID. Führt das jetzt dann dazu, dass es bei einigen Karten der maximale Turbo-Takt kleiner als bei den anderen ausfällt? Sind manche 680er dann ab Werk schneller als die anderen?

Das würde zumindest den verspäteten Launch erklären: Es braucht seine Zeit genug von den schnellsten Karten anzuhäufen, um diese dann an die Tester weltweit zu versenden. ;)
 
mondo_b2k schrieb:
@AnkH
korrekt!!! Die User mit veralteten Systemen haben meist ehh die Kohle nicht um 400€ und mehr für ne Top-Karte auf den Tisch zulegen oder sind einfach zu geizig aber reden alles mies und zocken mit einer alten Karte weiter.:D
Und das es Menschen mit anderer Wahrnehmung gibt kommt dir nicht in den Sinn?

Es gibt auch Leute wie mich, die haben schon ein paar Jahre auf dem Buckel und haben vor dem fps Wahn angefangen zu spielen und haben Spiele wie Doom noch auf uralten Kisten gezockt und das Highlight waren Spiele wie Quake 3 Arena.
Manchmal habe ich den Eindruck das gerade einige aus der jüngeren Generation gar nicht mehr bewusst (sein kann) ist wie mal früher gespielt wurde.

Und dann gibt es noch genauso die Fraktion die sich einredet nur das Beste vom Besten haben zu müssen und es sich einbilden. Das gab es schon in den Anfangszeiten von irgendwelchen Counterstrike Spielern die ja min 120fps haben mussten, damit sie flüssig spielen usw.
Und manche machen daraus gar eine Wissenschaft... :rolleyes:
 
C4rp3di3m schrieb:
Verstehe Ehrlich gesagt immer das ganze blabla nicht wegen den Grafikkarten. Alles was über 23,9* FPS liegt ist für das Menschliche Auge ruckelfrei, deshalb haben Filme diese Geschwindigkeit.

Da hast du zwar Recht, aber dies gilt einzig und alleine nur für Filme.
Da dort die Bildausgabe absolut gleichmäßig erfolgt und so setzt unser Gehirn daraus eine fliesende Bewegung zusammen. Auch sind Ereignisse und Bewegungsabläufe realitätsgetreuen. Somit kann dein Gehirn die Abläufe vorausberechnen bzw. man kann die nächste Szene bereits erahnen. So etwas nennt man auch das Vorausschauen in die Zukunft.

Der Unterschied zwischen einem Film und einem Spiel liegt in der Framezeitausgabe der Grafikkarte. Selbst eine Single-Grafikkarte hat keine gleichmäßige Frameausgabe und somit nimmt dein Gehirn dies als Ruckeln wahr. Auch ist es oft schwer für deinen Verstand diese unrealen Bilder oder Szenen zu verarbeiten und du benötigst deutlich mehr Bilder um aus einer Szenen eine flüssige Bewegung zu konstruieren.

Also für Filme reichen 24 Bilder/Sek. aber für Computerspiele sollte es schon 50-60 FPS sein.

OnTopic:
Endlich gibt es so langsam einen Startlaunch für Kepler.
Sollte diese Karte wirklich unter 200 Watt verbrauchen, aber mit der HD7970 auf Augenhöhe agieren, hat sie ja schon ihr Ziel erreicht. :)
Wir werden sehen was am 23. März präsentiert wird.
Es gibt dadurch nur etwas zu gewinnen. :D
 
Also ich erhoffe mir von den neuen Keplars zwei Dinge: 1.) mehr Leistung und 2.) MEHR LEISTUNG :D Ach ja, und an alle Strom-Trolle, geht in den Wald und heizt mit Holz. Ist CO2 neural :evillol:
 
Also man muss bei den 24fps ganz klar unterscheiden. Das Auge sieht zwar die Bilder ab da nicht mehr einzeln über den Bildschirm hupfen (wie wenn man ne alte Filmrole Bild für Bild anschaut), jedoch kann es eine Trägheit bei unter 60fps sehr sohl wahrnehmen!
Zudem ist auch nur der kleinste Frameverlust unter der max. Frames eines TFT´s z.b. (60Hz) sichtbar in Form von Hacken wenn man die Maus bewegt!
Dadurch, dass anscheinend eh 90% ohne V-Sync spielen und es nicht mal bemerken wie Tearing aussieht, dann ist mir klar warum diese Leute auch mit 30fps oder weniger spielen können ohne das es stört...
Selbe trifft auf AA und AF zu, was auch viele nicht ansatzweise sehen. Meine Freundin gehört übrigens auch dazu aber Frauen haben wissenschaftlich gesehen eh nicht die Wahrnehmung eines Mannes :evillol:
 
HOOKii schrieb:
Naja, mit diesen Marketingsprüchen ala Nvidia, will man die noch restlich verbleibenden Nvidaanhänger bei Laune halten, bevor die auch noch gänzlich zu AMD abwandern. Ich sehe das alles locker und denke es wird so ablaufen wie bei der 480er, ein zusammengeschusteter, lauter Heizofen und dann möchte ich mal die großen Augen der Fans sehen. Aber wie ich das jetzt schon sehe, werden die Fans selbst aus so einem Flickwerk noch massig Positives sehen. Der horrente Preis ist dabei Nebensache, Wetten das?

ich weiß gar nicht wieso du auf Heizofen kommst. Die karte wird mit an Sicherheit grenzender Wahrscheinlichkeit etwas weniger brauchen.

Die GTX480 war ein extrem großer Chip vergleichen zur Konkurrenz, dazu noch teil-deaktiviert.
Warum war/ist er das? Da 1D und extrem GPGPU ausgelegt.

Der GK104 fällt kleiner aus als Tahiti. Auch 2x 6 Pol Stecker für Max 225W.

Wieso sollte das also ein Heizofen werden? Dadurch, dass AMD die Abkehr von Multi D Shader Design begangen hat, zu Gunsten von GPGPU, ist ihr Chip aufgeblasen und weniger effizient geworden (jaja 28nm kaschiert das). Das wird dem ein oder anderen eventuell erst beim Vergleich klar.

tool4lifgq.jpg


Du spamst hier nicht weniger "fanboyartig" rum wie viele andere hier. Sehs doch einfach neutral.


Da ich nicht glaube das NV hexen kann, geh ich davon aus, dass beide Karten fast gleich schnell agieren und auch der NV Takt so gewählt wurde. 710 Mhz wären sehr wenig.
Ergänzung ()

Eyefinity schrieb:
Was geht an welcher Stelle nicht? Wenn Du die 3 Monitore anschliesst und den Dektop auf alle erweiterst, wird auf allen dreien ein Bild angezeigt? Hast Du eventuell mal was am Ausgabemodus geändert ("Windowstaste" + P). Eyefinity und der die windowsinterne Bildausgabe Umstellung haben sich nicht so gerne! Was aber wohl normal ist bei der Spiegelung von 6048x1200:freak: Schade das Microsoft es AMD nicht erlaubt dieses "feature" zu deaktivieren bei aktiviertem Displayvebund!

gar nichts geht. Ich brauch nur einen meiner Dell Monitore über miniDP auf DP Kabel anschließen und der Rechner bootet nicht mehr ^^
Nich mal ins Bios.

Im übrigen leuchtet dann mein Mainboard als ob Saft über DP kommt... also auch wenn ich den PC komplett vom Netz trenne ;)

Siehe hier so ähnlich

https://www.computerbase.de/forum/threads/displayport-verhintert-pc-start-hd5850.914548/

Ich sehs aber nicht ein 60€ für DP Kabel liegen zu lassen, da steck ich lieber den Tv an wenn ich ihn mal brauche...

Edit: im übrigens gehts mit ner kleinen Quadro Karte was mich optimistisch stimmt auf die neue GF Serie. Alles in allem aber kein Totschlagargument. Nervt halt.
 
Zuletzt bearbeitet:
Also wenn man sieht am cb test das die Speicherbandbreite bei den high end Grakas einen nicht unerheblichen Performanceanteil hat, dann muss nv bei einem 256 bit Interface bei high end grakas ja schon 6000 mhz beim Speicher fahren um die nötige Bandbreite noch zu erreichen , ausser sie haben eine neue Speichertechnik entwickelt, aber das wäre dann sicher schon irgendwo aufgetaucht in einem der gerüchte.
Und 10% schneller als eine 7970 ist jetzt auch nicht so toll wenn man an deren hochnäsige aussage zurückdenkt.
Bin gespannt wie es dann mit der stromaufnahme aussieht und dem preis im vergleich zur 7970 .
 
Ich finde aber auch auf jeden Fall,gesehen durch meine eigene Erfahrungen,dass man zwar viele Spiele noch flüssig spielen kann,wenn man die 30 FPS Grenze nicht unterschreitet.
Aber wenn man dann mal aufrüstet und genau die selben Spiele,die man gerade noch mit 30 FPS gespielt hat,dann auf einmal mit 60FPS und schneller spielt (Am besten noch im selben Level,wo man zuvor mit 30FPS gespielt hat),dass es einen gewaltigen Unterschied macht.

Es fühlt sich einfach alles etwas flüssiger an,die Steuerung wird gerade in schnellen Bewegungen präziser und bei manchen Spielen kann man dann sogar schneller laufen oder höher springen,weswegen auch immer.

Und gerade dann lohnt sich finde ich die Investition am meisten,vor allem wenn man auch noch leistungsorientiert online spielt gegen sehr gute Gegner.

Dann zählt bekanntlich jede Millisekunde in schnellen Gefechten und seit ich damals von meiner 9800 GX2 auf zwei GTX 480 umgestiegen bin,habe ich sofort den gewissen Vorteil gespürt,als ich in Rainbow Six Vegas 1-2 plötzlich anstatt 30 FPS mit 100-120 FPS im Durchschnitt unterwegs war und es auch keine starken Frameeinbrüche mehr gab.

Das Spiel wurde zwar für mich nicht sichtbar schneller,aber präziser und ich konnte alle Handlungen noch schneller ausführen,wodurch ich noch besser in dem Spiel wurde,als ich es eh schon war.
Klar braucht es für diese Vorteile wohl nicht die vollen 100 FPS,aber ab einer gewissen FPS Grenze spürt man diese Vorteile dann eben doch.

Aber auch bei Singleplayerspielen merkt man es.
Crysis 1 + Textur Mod und Master Config,Crysis Warhead und Crysis 2 macht mit maximalen Grafikeinstellungen auf 1920x1200 Auflösung,16xHigh Quality AF,8x AA bei 50-60 FPS deutlich mehr Spaß und spielt sich flüssiger und präziser,als es mit 25-30 FPS gerade noch so spielen zu können.
 
Zuletzt bearbeitet:
Sieht aus, als bekäme das Teil einen 85mm oder noch größeren Radiallüfter, sehr gut. Kürzere Karte = weniger Weg für die Luft. Nur leider ist die Slotöffnung etwas kleiner geworden. hm :/
 
Der letzte Satz im Artikel ist der wichtigste:
Am Ende ist letztlich also nur eines sicher: Nichts ist sicher!
So siehts aus... und solange nichts offizielles kommt glaub ich noch eher an den Osterhasen als an diese "Gerüchte".
 
was ist bekannt.

- Die gestockten Stecker
- Das CAD Layout
- Die PCB Pics

Für mich alles zu 99% save.

Genau dazu passt ein Bild der ganzen Karte -> mit GTX 670 TI Aufschrift.

Entweder kommt der GK104 als GTX 670 TI (das passt ja auch) und kurz später eine GTX 680 - oder aber andersherum und von der GTX680 ist noch 0 und nichts bekannt.

Ich glaub nicht, dass sich jemand die Mühe gemacht hat GTX 670 TI auf das Bild der Karte zu editieren. Viel eher wäre die Karte dann kurzfristig umgelabeld worden und das Pic schon älter.
 
da steht aber gtx 570 ti :)
 
Zuletzt bearbeitet:
Das ganze hin oder her is doch sowiso fürna rsch mal ehrlich wie gross ist der unterschied zwischen 560ti und 6950 6970 und 570 mal die vorne mal jene.
*für nv bei annähernd gleicher leistung wie amd bis zur 7k doch bessere bildquali
Vorteil amd besseres P/W verhältniss

JEtzt wäre die frage bzw auszutesten inwieweit nv karten perforamnce gewinnen würden wenn man die bildqualität auf amd niveau senken würde.
Dann würde hier nv ein plus haben amd aber wohl noch immer beim P/W verhälniss vorne.
Eyefinity als auch 3d oder physx sind zwar pro und cons für den jeweiligen aber denke das sind dann eher randenscheidungen.

Wenn ich meinen fokus auf eyefinity lege fällt nv eh aus also suche ich mir die P/L leistungskarte bei amd oder wenn ich kohle hab halt das topmodell.
Wenn ich wert auf 3d lege bleibt bei derzeitigem stand fast nur nv
wenn ich cuda programme nutze war auch nv bis zur7k vorne.

Von daher würde ich ganz grob gesehen beide hersteller eher gleichwertig sehen den wirklich viel unterschied in perfroamnce (regt ihr euch wirkoich wegen 3fps oder 20W unterschied is doch alles nur mumpitz.

Ich habe nv weil sie je nach generation leiser waren und ne spur schneller und mir war es das wert.Auch ist mir die etwas bessere bildqualität bis jetzt wichtiger gewesen als das bsichen an strom mehr das sie brauchen. Das hat nix mit fanboy gelaber zu tun, sondern lag einfach an meinen Anforderungen.

Da AMD bei der Bildqualität nun gleich ist und physx als auch 3d für mich nicht wichtig sind ist bei einem derzeitigen kauf, wenn kepler nicht merklich beim stromverbauch aufholt und evtl bei der Lautstärke punkten kann, vorne.

Und naja 6850 und 6870 sind für P/L Käufer natürlich ohne konkkurenz.
 
Krautmaster schrieb:
Wieso sollte das also ein Heizofen werden? Dadurch, dass AMD die Abkehr von Multi D Shader Design begangen hat, zu Gunsten von GPGPU, ist ihr Chip aufgeblasen und weniger effizient geworden (jaja 28nm kaschiert das). Das wird dem ein oder anderen eventuell erst beim Vergleich klar.

Und genau auf diesen Vergleich bin ich so was von gespannt.
Tahiti wurde ja durchweg als Effizienzwunder beweihräuchert und bei jeder neuen News über AMDs neue HD7000er-Serie quasi gebetsmühlenartig heruntergeleiert. Klar ist eine Karte in 28nm effizienter zu bauen, aber wie effizient ist sie wirklich bzw. wie viel Effizienzpotenzial liegt im 28nm-Fertigungsprozess alleine ?

Wenn Kepler GK104 weniger verbraucht, aber trotzdem genauso schnell ist, bedeutet dass, AMDs GCN ist eben nicht als Stein der Weisen anzusehen und nur dank der 28nm-Technologie erst marktfähig.

Aber das wird sich eben noch zeigen müssen. :cool_alt:

Da ich nicht glaube das NV hexen kann, geh ich davon aus, dass beide Karten fast gleich schnell agieren und auch der NV Takt so gewählt wurde. 710 Mhz wären sehr wenig.

Die Taktrate ist allerdings noch sehr schwammig.
710 MHz hören sich nicht nach viel an, aber falls der HotClock noch vorhanden ist, könnte er tatsächlich stimmen. Die Shader arbeiten dann schließlich mit der doppelten Taktfrequenz und das sind ja dann immerhin 1420 Mhz.

Vergleicht man jetzt noch die beiden Platinenbilder miteinander, bin ich ebenfalls sehr optimistisch, dass der GK104 das bessere und rundere Produkt darstellt.
Wir werden sehn... :)
 
Krautmaster schrieb:
[...] Genau dazu passt ein Bild der ganzen Karte -> mit GTX 670 TI Aufschrift. [...]
Ich persönlich zweifle an der Echtheit dieses Bildes. Erstens steht dort "GTX 570 TI" und zweitens kann ich mich nicht erinnern, dass nVidia jemals eine GeForce auf diese Weise beschriftet hat. Der Produktname stand stets auf dem Aufkleber, direkt auf den Kühler wurden lediglich das Logo und der Schriftzug "GeForce" aufgedruckt.
 
Naja die fps diskussion könnte mana uch auf monitore und die ms umwälzen .
Zur anfangszeit der monitor und gaming hies es ab 25ms sind die monitore schnell genug zum gamen und jetzt auf einmal sind so8m s schon schlecht und man braucht 2ms damit man keien schlieren etc sieht :D
Also mein Monitor hat 16ms und ich hatte noch nie bei schwenks irgendwelche artefakte schlieren verzerrungen.
doch bei einem spiel doom3 absolut sichbar, aber ka warum evtl. liegts daran das die hd mods nicht funkionieren und ich mit 1600x1200 gestreckt spielen muss oder nicht da die schlieren doch nervig sind.
Aber in allen anderen shootern (mafia,crysis,far cry, cs,moh,cod und co nix absolut nix)

Kann aber eben auch sein, das ich nen fehler in meiner augen hirn koordination habe und andere das doch wahrnehmen man weis es nicht genauso mit den fps.
Genauso reichen mir an die 30fps um alle shooter zu spielen im schwierigsten grad (und davor spiel ich nicht mal in einem leichteren durch) und anscheinend klappt das zielen trotzdem :D.
Wobei evtl bin ich op und wenn ich nen sli system hätte mit 100fps müsste man mich nerfen (trolllolol).
 
Zuletzt bearbeitet:
Also ob kepler wirklich so op wird bleibt noch abzuwarten freaky.
Wenn wir mal davon ausgehen das die gerüchte stimmen nehmen wir an 680 und 7970 sind perforamnce je nach game gleichwertig mal die mal jene vorne.
So bildqualität ist bei der 7xxx jetzt doch auf einem gleichen niveau bleibt abzuwarten ob kepler hier nochmal eine schippe nachlegt um wieder vor amd zu sein.
Stromverbrauch müsste wenn es so bleibt zu bisherigen nv karten ja top werden.
Aber die Frage die immer noch offen ist lässt sich nv diesen neuen vorsprung im P/W bezahlen oder können wir einen P/L kracher erwarten ?

Solange der Preis nicht geklärt ist bleibt wie schon 20 x geschrieben nur abzuwarten.

Auch wenn ich kein nv fan bin und die nv politik evtl nicht ganz "korrekt" wünsch ich aber nv das sie beim stromverbauch mal vor amd sind und die ganzen nv basher ihr maul halten müssen :evillol:.
 
Nano-kun schrieb:
da steht aber gtx 570 ti :)

Jenergy schrieb:
Ich persönlich zweifle an der Echtheit dieses Bildes. Erstens steht dort "GTX 570 TI" und zweitens kann ich mich nicht erinnern, dass nVidia jemals eine GeForce auf diese Weise beschriftet hat. Der Produktname stand stets auf dem Aufkleber, direkt auf den Kühler wurden lediglich das Logo und der Schriftzug "GeForce" aufgedruckt.

ich sehe da kein perfektes 570 noch 670...

670dzj87.jpg


Bei der Karte an sich sieht man jedoch perfekt die gestocken 2x 6 Pin, das gab es so noch nicht. Dazu die seitlichen Schlitze auf höhe der SLI Brücken was gut hierzu passt:

kepler_gk104_kuehler_lxjb4.jpg


Ergibt alles Sinn. Der Kühler endet früher, seitl Schlitze da hinten recht wenig Ausstoß stattfinden kann.

Vermutlich symmetrisch auf der anderen Seite genauso.

Kepler-GTX670Ti.jpg


Sogar der Kühler auf dem Bild ist bei den Lamellen mit einer Ausbuchtung an dieser Stelle versehen.

Wer sollte schon diese Karte so faken....

Man beachte auch die direkt über dem PCB befindliche schwarze Einfassung die auf beiden Bildern ist. Passt absolut zueinander.
Sogar die seitl. Schaube auf Höhe des Lüfters links der gestapelten Buchsen, die andere Schraube genauso...

Zudem ist zumindest die 7 ja wohl deutlich sichtbar.

In Folge dessen muss es auch eine 6 sein ;)

Und in Folge dessen werden wir früher oder später den Launch der GTX 670 Ti erleben (außer die 7 is auch Fake) :D

Edit:

Auch der Schriftzug passt perfekt zum neuen Logo:

geforce_GTX_logojpg.jpg
 
Zuletzt bearbeitet:
PiPaPa
Hab eher das Gefühl dass Grafik heut schon oft fehlende Herausforderung oder Inhalt kompensiert....

Pickebuh
Wenn Kepler GK104 weniger verbraucht, aber trotzdem genauso schnell ist, bedeutet dass, AMDs GCN ist eben nicht als Stein der Weisen anzusehen und nur dank der 28nm-Technologie erst marktfähig.
Ja oder die Fertigung besser wird... Es kann viel heißen...

Krautmaster
Ich erkenn da gar nix :D da schaut das G schon eher nach ein 6er aus xD
Ich weiß nicht wieso euch ein Name so wichtig ist :D

Wieso sollte das also ein Heizofen werden? Dadurch, dass AMD die Abkehr von Multi D Shader Design begangen hat, zu Gunsten von GPGPU, ist ihr Chip aufgeblasen und weniger effizient geworden (jaja 28nm kaschiert das). Das wird dem ein oder anderen eventuell erst beim Vergleich klar.

Das ist etwas allg. Denn du selbst sagtest, es ist nicht der eigentliche Konkurrenz zur HD 7970, sondern die HD 7800 Reihe ist es. Diese ist aber kleiner und effizienter als die HD 7900 Reihe.
Außerdem wenn du den Test von der HD 7970 durchließt, wirst du lesen dass die neue Architektur weit aus effizienter ist als damals VLIW.
Und HD 7700 passt nicht in diene Aussage, genauso wie die HD7800, weniger shader höherer takt, weniger Verbrauch, ist aber schneller als dessen Vorgängermodelle.
Doch es ist üblich bei AMD immer nur das Flagschiff zu nehmen und dann über alle Modelle allgemeine Aussagen zu betätigen, für mich ist eigentlich die HD 7970 das unausgewogenste Teil, denn die 7950 steht finde ich besser da, und mich würde es nicht verwundern dass eigentlich 1000Mhz für die 7970 vorgesehen war, und die Fertigung es anfangs nicht sicher zuließ.
NV eigentliche Flaagschiff soll 500mm^2 sein, da ist AMD verglichen ja ein Zwerg.


Eveneutell hat aber NV entschieden, die eigentliche Mainstream-Karte zu krönen, da die andere Wirtschaftlich wenig Sinn ergeben könnte. Und hier hat vllt AMD sogar wirtschaftlicher gedenkt als NV. Somit kann es passieren dass man doch Hotclocks eingeführt hat (oder sie mit dem Turbo verbunden hat) um eine HD 7970 zu schlagen. Somit kann es gut sein, dass man unter Last mehr verbraucht.
Mich wundert es nur wieso der Kühler so fett ist. Sicherlich kann man aber auch einen"leisen Kühler" vermuten.

Und selbst wenn VLIW kleiner ausfallen mag, ist GNC deutlich effizienter, da bei VLIW meist ein großer Teil brach liegt, wenn nicht gut parallelisiert werden kann.
 
Zuletzt bearbeitet:
@Krautmaster:

Selbst wenn ich eine grüne Brille aufsetzen würde, könnte ich den Schriftzug nicht als "GTX 670 TI" deuten.
Sogar der Kühler auf dem Bild ist bei den Lamellen mit einer Ausbuchtung an dieser Stelle versehen.
Ich kann keine Ausbuchtung erkennen. Wo soll diese denn sein?
Dazu die seitlichen Schlitze auf höhe der SLI Brücken
Wie es im Übrigen auch bei GTX 580/70 der Fall ist:
gtx580_sli_brueckenpjs2.jpg
Wie sonst, sollte man die Brücke überhaupt nutzen können? :freaky:
Und in Folge dessen werden wir früher oder später den Launch der GTX 670 Ti erleben (außer die 7 is auch Fake)
Damit gibst du selbst zu, dass es eine Fälschung sein könnte.
 
Zurück
Oben