News Erstes Lebenszeichen des GTX-600-Nachfolgers aufgetaucht

Abgesehen davon, dass du falsch liegst - hast du dich jetzt genügend profiliert vor dem Forum, wie toll du die Ignore-Funktion nutzen kannst? Ja? Dann endlich zurück zum Thema, danke!

@Lübke:
Ja in der Tat, da geht es schon ziemlich durcheinander mit den Namen. Also dass es "GK" sein muss, steht denke ich fest.

GK114 geht evtl. nicht, weil laut einem Spezi im 3DC die mittlere "1" für den speziellen Kram steht, den GK110 hat. Bleibt ja eigentlich nur noch 20x, denn 105 etc. kann man nicht nutzen, das klappt spätestens bei GK106 und. 107 nicht mehr, da ist ja kein Platz dazwischen.
 
halte ich für reine spekulation. 3dc ist oft sehr lesenswert und informativ, aber die jungs kochen auch nur mit wasser ;)
bei fermi war die mittlere 1 für refresh. kann man ändern, muss man aber nicht ^^
dann wäre auch der gk110 die teslaversion des gk100. nur gibts doch gar keinen gk100. dann müsste die tesla auf gk114 basieren,...

ich warte lieber gespannt ab, welcher name am ende dranstehen wird und erfreue mich bis dahin an den wilden spekulationen :)
 
boxleitnerb schrieb:
Fühl dich mal nur nicht zu überlegen. Ich sehe deine Projektionen bzgl. GK110 weiterhin als viel zu pessimistisch und realitätsfern an. Schneller als die 8970 wäre so eine Karte wohl auch - WENN sie kommt.
Im Gegensatz zu dir hatte ich es noch nicht in Betracht gezogen, dass GK110 eventuell nicht kommen kann.
Einerseits meine Projektionen als realitätsfern & Pessimistisch zu sehen und andererseits GK110 noch irrealer (= bleibt der Realität fern = kommt eventuell doch nicht) zu sehen, finde ich ziemlich witzig.

Aber gut, in der R600/R670-Zeit galt man auch als realitätsfern, wenn man meinte, dass AMD in 2 bzw. 4 Jahren temporär bzw. langfristig die Performance-Single-Krone zurückgewinnt.
Ist jetzt genauso, wenn man das über AMD-CPUs sagt, wo damals zu dieser R670 Zeit auch viele den GPU-Untergang sahen, weil AMD angeblich ebenso viel Geld R&D-GPU-Entwicklungen eingespart haben soll bzw. teils haben.

Es ist eine Möglichkeit, muss so nicht kommen. Wenn es sich finanziell lohnt für Nvidia, das Profisegment komplett abzutrennen, dann ja. Das weiß bisher nur Nvidia selbst.
Und wenn man sich Technisch & Co etwas auskennt, kann man es auch erahnen!

Langfristig wird es soundso in diese Richtig gehen, wenn Dies/Architekturen der High-End-GPUs immer mehr in die GPGPU-Richtigung gehen. Nur bedeutet eine komplette Trennung genauso viel Geld, aber eben an anderen Stellen. Die enorme Verschiebung von GK110 deutet eben darauf hin, dass GK110 als All-In-One (Game & GPGPU) grenzwertig ist und Nvidia sich vorher dachte, dass diese GK110-Variante im Gesamten den meisten Profit bringt.

Eher hätte ich die GPGPU & Game-Trennung mit Maxwell gerechnet.
Die Gerüchte um GK204 hören sich jetzt aber auch schon so nach einer Trennung an, da die GK204 genauso +40% (= +40% Performance) Shader hat. Und so eine GK204 als Game-High-End-Only-GPU kann man auch in so einem Jahr machen, was eh fast der "GK110-Verschiebung" enstspricht.

boxleitnerb schrieb:
Äh, GF110 war ähnlich effizient wie Cayman, siehe GTX570 vs HD6970. Aber das nur am Rande.
Gewöhne dir mal an mal die gleichen Grafikkarten bzw. Voraussetzungen zu vergleichen alias AMD schnellste GPU vs Nvidias zweitschellste GPUs.
Dass Nivida gegen den nichtso-effizienten HD 6970 eine ähnliche Effizienz erreichte, würde ich jetzt als Zukunftsberuhigen sehen, wenn es im Vorgänger-Refresh-GPU wesentlich besser aussah ala 10+% höhere Effizienz.
https://www.computerbase.de/artikel...0-vs-nvidia-geforce-gtx-275-test.985/seite-22
 
Eine Verschiebung von GK110 gibt es nicht, das hab ich dir schon oft genug erklärt. Du hast bis heute nicht kapiert, dass auch in K20 ein GK110 sitzt, und K20 wird bereits in Massen ausgeliefert. Dass noch kein offizieller Launch mit Retail-Verfügbarkeit stattgefunden hat, ist hier irrelevant, das lässt die existierenden Chips nicht verschwinden. Desktop ist nicht alles - an geänderten Prioritäten kannst du keine Verschiebung festmachen.

Schnellste, Zweitschnellste - das ist vollkommen egal. Man kann jeden Chip effizient bzw. ineffizient machen, wenn man den Takt sehr niedrig oder sehr hoch ansetzt evtl. noch mit Spannungssenkungen bzw. -erhöhungen. Ich habe zwei Produktvergleiche genannt, auf die meine Aussage voll und ganz zutrifft, Punkt. Wenn du das Bedürfnis hast, das weiterzudiskutieren, bemühe doch die PN-Funktion. Kasmopayas OT-Unsinn war eigentlich schon genug, da musst du nicht auch noch ankommen.
 
Zuletzt bearbeitet:
knuF schrieb:
Und wenn das Ding GK56569 heißen würde... ist doch völlig latte.

Wenns dich nicht interessiert, dann sag doch einfach nix dazu.. meine güte..
 
Kasmopaya schrieb:
Nur so am Rande, nur die HD 6970(max. Performance ohne Rücksicht auf Verluste) hatte nicht die beste Effizienz von AMD, schau mal wo die 6950 liegt und der Rest:

Schlechter als Thermi geht kaum, wo soll der Ruf denn auch sonst herkommen? Mit der HD 6000 hatte AMD die höchsten Effizienzvorsprung ever: http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_680/28.html

Ich warne dich mal vor wegen alter Zeiten, noch so ein "Thermi ist effizient" Gelaber und du bist auf Ignore.

Es würd bestimmt seinen Grund gehabt haben wieso es bei der 400er Serie keine Dual GPU Karte gab selbst die HD 5970 brauchte nur 44 Watt mehr als die GTX 480 und das ist eine Dual GPU. Insgesamt waren sowieso 2009 und 2010 bisher die schlimmsten Jahre, wenn es um den Stromverbrauch bei GPUs geht. Wie es zurzeit aussieht geht der Stromverbrauch von Grafikkarten nach und nach wieder zurück.
 
boxleitnerb schrieb:
Eine Verschiebung von GK110 gibt es nicht, das hab ich dir schon oft genug erklärt. Du hast bis heute nicht kapiert, dass auch in K20 ein GK110 sitzt, und K20 wird bereits in Massen ausgeliefert. Dass noch kein offizieller Launch mit Retail-Verfügbarkeit stattgefunden hat, ist hier irrelevant, das lässt die existierenden Chips nicht verschwinden. Desktop ist nicht alles - an geänderten Prioritäten kannst du keine Verschiebung festmachen.
Nein ich habe nicht kapiert, warum Quadro & Tesla jetzt soooo viel wichtiger ist als früher, wo heute Nvidia den selben Umsatz & Gewinn macht, wie früher bzw. z.b vor der Wirtschaftskrise Mitte 2008. Eher im Gegenteil. Der Umsatz mit so 200 Mio. $ und Gewinn mit 90 Mio. $ hat sich auf diesem Niveau festgefahren und Nvidia hat das Problem der erhöhten Konkurrenz mit Xeon-Phi, FirePro und Blue-Gene

Übrigends, wenn es von Anfang an geplant war GK110 1 Jahr später zu bringen, dann ist der Rückschritt von Nvidia im Einführungsjahr blöderweise stärker, da sie im Fertigungs-Einführungs-Jahr anstatt +15+% Performance nur mehr einen 5-10% Performance-Rückstand zu Konkurrenz schaffen. Nur weil für dich plötzlich die Performance-Single-GPU-Krone keine Bedeutung hat, muss das nicht für andere gelten.

Schnellste, Zweitschnellste - das ist vollkommen egal. Man kann jeden Chip effizient bzw. ineffizient machen, wenn man den Takt sehr niedrig oder sehr hoch ansetzt evtl. noch mit Spannungssenkungen bzw. -erhöhungen. Ich habe zwei Produktvergleiche genannt, auf die meine Aussage voll und ganz zutrifft, Punkt.Wenn du das Bedürfnis hast, das weiterzudiskutieren, bemühe doch die PN-Funktion.
Ich habe nur dagegen, wenn Leute wie du nach ihren Ansichten beliebig Vergleiche heranziehen und andere Belehren, dass ihre Ansicht falsch ist.
Vorallem wenn du neue Bewertungs-Maßstäbe setzt, wenn Nvidia angeblich die Prioritäten geändert haben oder wenn Nvidia es nicht schafft, diesen GK110 überhaupt auf den Markt zu bringen. Du vergisst, dass TSMC selber sagte, dass im 4Q 2012 es keinen 28nm-Wafer-Engpass mehr gibt. Also, wenn genüngend Wafer vorhanden sind, dann gibt es auch keine Prioritäten-Reihung und wenn Nvidia mit dem GK110-Chip nicht mehr Profit machen kann, dann zeigt es ja die Problematik, die Nvidia momentan und zukünftig hat.

Wenn du über das Thema nicht weiterdiskutieren willst dann ist das dein Problem und nicht anderer, wenn die dieses Thema anders sehen.
 
Es ist also alles wie immer^^

Kann es sein dass die Sprünge immer kleiner werden aber die Bezeichnungen trotzdem eine komplett neue Generation vermuten lassen?

Wenn das so weiter geht sieht es irgendwann so aus wie bei Mozilla Firefox..... jede Woche ne neue Version....
Aber ich will den Teufel nicht an die Wand malen.

Ich freu mich jedenfalls auf ne Ablöse für meine Karten, auch wenn ich glaube dass mein Restsystem dann bremmst.... verdammt.....
 
Wie es zurzeit aussieht geht der Stromverbrauch von Grafikkarten nach und nach wieder zurück.
Wahre Worte, denke auch das die miserable Performance per Watt eine GTX 490 verhindert hat, aber der Schein trügt. AMD hat seit Jahren(seit 40nm) von Haus aus effiziente Karten im Programm, da ist die GPGPU Karte dann auch extrem effizient geworden im Vergleich. Und bei NV steht jetzt wieder ein GPGPU(Fermi war einer) Klopper an, der könnte wieder Saugen wie verrückt. Die Frage ist kommt auch die Leistung die das ganze dann rechtfertigt? Um es mal mit Lübkes worten zu sagen:

nicht unbedingt. der chip wäre nicht größer als ein fermi...
Also quasi ein Monster, der am Anfang gar nicht im Vollausbau(GTX 480) gebracht werden konnte und die Fertigung von TSMC bis aufs Limit ausreizte. Nach dem was wir wissen hat sich der Chip schon ein paar mal verschoben weil 28nm noch nicht bereit war. Also könnt ihr schon ahnen was Big K für TSMC mal wieder für eine Herausforderung darstellt. (basiert natürlich alles auf Gerüchten)
 
Zuletzt bearbeitet:
Wie es zurzeit aussieht geht der Stromverbrauch von Grafikkarten nach und nach wieder zurück.
Kann ich nicht nachvollziehen.

Bis auf R670 legten alle zu oder
HD 2900 ... 145W
HD 3870 ... 110W
HD 4870 ... 160W
HD 4890 ... 180W
HD 5870 ... 180W
HD 6970 ... 205W
HD 7970 ... 210W

G80 ....... 150W
GT200 ... 185W
GF110 ... 245W
GK110 ... ???W

Ich habe nicht das Gefühl, dass die Grafikkarten für viele Gamer zu viel Stromverbrauchen.

Wishezz schrieb:
Es ist also alles wie immer^^

Kann es sein dass die Sprünge immer kleiner werden aber die Bezeichnungen trotzdem eine komplett neue Generation vermuten lassen?
Es sieht nicht so aus.
AMD ist jetzt ziemlich gut im Jahres-Rythmus und bei Intel regt sich auch keiner über so einen Jahres-Rythmus auf.
Eigentlich könnte man Nvidias auch als Jahres-Rythmus sehen, wobei einmal umlabeln (100er oder 300er) bei Nvidia sicher zu viel des Guten war, weil dieser den Jahres-Rythmus aufgebrochen hat.

Gerade im Elektronik-Sektor (Fernseher, Smartphones, ...) gibt es diese Jahres-Rythmen. Da es gerade im Grafikkarten-Sektor laufend Treiber-Verbesserungen gibt, würde ich es nicht schlimm sehen, wenn sie statt einem 2 Jahres-Abstand eine Umgelabelte Generation umlabeln dazwischen schieben.
Wer sich jede Generation kauft, kennt sich meistens eh gut aus und wer selten eine neue Karte kauft, der bekommt so oder so eine Karte mit kleinerer Fertigungsstruktur und somit eine viel schnellere Karte.
 
Videocardz.com will darüber hinaus in Erfahrung gebracht haben, dass das GeForce-GTX-700-Flaggschiff zwischen 1.728 und 2.112 Shadereinheiten besitzen soll. Bei dieser großen Spanne lässt sich so natürlich kaum eine Vorhersage zur Leistung geben, jedoch ist diese ebenso auch davon abhängig, ob Nvidia den Takt erhöhen möchte oder nicht.
Naja viel wird es nicht sein. Schaut man sich die 4xx im Vergleich zur 5xx Serie an, dann waren das 10-15% Steigerung.
Schaut man sich die 6xx an, die in Vergleich zur 5xx schon ein recht großer Sprung war, von teilweise bis zu 100%, dann wird die 7xx Serie vielleicht einen etwa größeren Sprung machen als die 4xx zur 5xx Serie, also irgendwo von vielleicht 15-20%.
Vorallem sollten die Firmen mal verstärkt daran denken, den Karten mehr Speicher zu spendieren. Schaut man sich mal die 690er Karte an, dann hat man nur 2GB zur Verfügung. Die Karte hat aber gutes Potenzial, mit drei Monitoren betrieben zu werden, wobei die 2GB dann schnell zum Flaschenhals werden.
Hier sollte es erst gar keine Karten geben (790), bei der man nur 2GB zur verfügung hat. Hier wären 4GB oder besser noch 6GB angemessen. Kostet natürlich, aber wer sich solche Karten kauft, dem kommt es auf 100 Euro mehr auch nicht mehr an.
 
@aylano
Wie viel Strom der GK 110 in absoluten Zahlen verbraucht ist den Leuten die ihn jetzt nutzen hertzlichn egal. Hauptsache das Teil lässt sich im Server noch kühlen. Dort ist die Performance/W Angabe wichtiger.

Da NVIDIA den 110 ein bisschen anpasset wird die 780 nur etwas mehr Strom brauchen als die 680.
 
Kasmopaya schrieb:
Und bei NV steht jetzt wieder ein GPGPU(Fermi war einer) Klopper an, der könnte wieder Saugen wie verrückt. Die Frage ist kommt auch die Leistung die das ganze dann rechtfertigt? Um es mal mit Lübkes worten zu sagen:


Also quasi ein Monster, der am Anfang gar nicht im Vollausbau(GTX 480) gebracht werden konnte und die Fertigung von TSMC bis aufs Limit ausreizte. Nach dem was wir wissen hat sich der Chip schon ein paar mal verschoben weil 28nm noch nicht bereit war. Also könnt ihr schon ahnen was Big K für TSMC mal wieder für eine Herausforderung darstellt. (basiert natürlich alles auf Gerüchten)

Sag mal ließt du abseits von deinem Geschreibsel auch mal aktuelle News,oder ignorierst du großzügig das was dir nicht passt,nur um dir hier ne negative Märchengeschichte zurecht zu biegen?

Der Chip wurde bereits an die 20 000 mal ausgeliefert.

Boxleitnerb hat es bereits erklärt gehabt K20 ist ebenso "Big K" und arbeitet bereits zuverlässig in den dafür vorgesehenen Clustern.

Zu deinem Ineffizienz/Leistungsmärchen nur ein Zitat

Titan ist zehnmal schneller und fünfmal sparsamer im Stromverbrauch als sein Vorgänger

Angesichts der hier vorliegenden Fakten fragt man sich wo du zu diesen obigen Schlussfolgerungen kommst
 
Zuletzt bearbeitet:
@aylano: Der Jahreszyklus ist mir bekannt, aber es kam mir erst so vor als gibt es komplett neue Bezeichnungen für Technik die eigentlich die gleiche ist wie vorher.
Und dann fiel mir die 8000er und 9000er Reiher von NV ein. Da war es schon genauso.
Und die Geforce 3 Ti ist gefloppt, so hatte ich das Gefühl^^
 
Zurück
Oben