News Nvidias Kepler-GPU in der Gerüchteküche

Mir geht es darum, dass Nvidia ohne Not die PCIe Spezifikationen zum Teil krass mißachtet (bspw GTX570 -> 2*6P), nur um ein paar Cent in der Fertigung zu sparen (oder ihre Produkte sparsamer als sie sind erscheinen zu lassen?).

Hoffentlich spart hier Nvidia bei Kepler nicht wieder an der falschen Stelle, da ja auch die Preisgebung mutmaßlich wir mal sehr "selbstbewußt" wird.

Klar, dass das aber einigen vollkommen egal ist, solange die Leistung stimmt. Auch wenn das Netzteil ächzt.:D
 
pipip schrieb:
Ah die Info kommt ja von meinem liebsten Autor xD Wann immer der name AMD auftaucht, muss auch der Name der Konkurrenz kommen. Er redet viel, dabei bleibt oft dann halbwahrheiten da, deshalb schreiben AMD news bei Fudzilla meist andere, die etwas "objektiver" sind.
Abgesehen davon, dass wir uns im Kepler-Thread (Nvidia!) befinden, bin ich für eine objektive und nicht einseitige Betrachtung - das hast du völlig richtig erkannt. Ich habe Fakten dargelegt, die meine Aussagen belegen und dann kommen Leute wie du und trollen :freak: Großes Kino!

Athlonscout schrieb:
Mir geht es darum, dass Nvidia ohne Not die PCIe Spezifikationen zum Teil krass mißachtet (bspw GTX570 -> 2*6P), nur um ein paar Cent in der Fertigung zu sparen (oder ihre Produkte sparsamer als sie sind erscheinen zu lassen?).
Laut HT4U in Spielen unter 200W, was von den theoretischen 225W doch einiges entfernt ist. Eine "krasse Missachtung" sehe ich da nicht ...
Ergänzung ()

Du bist derjenige, der mich auch in diesem Post wieder unter grundlos Beschuss nimmt :rolleyes: Seit jeher belege ich meine Aussagen, dennoch werde ich getrollt ... danke, aber ich verzichte auf Seitenhiebe, persönliche Angriffe oder den haltlosen Vorwurf mangelnder Neutralität - alles beliebte Trollstilmittel.

EDIT
Offenbar sieht es CB wie ich auch - es ist OT, die Fakten sind längst auf dem Tisch [sorry, Post kam "danach"]
 
Zuletzt bearbeitet:
Ich versteh' nicht ganz, weshalb man diese News so aufbläht, denn im Grunde genommen ist man genauso schlau wie vorher.
 
@göschle

Es gibt Leute, die wollen über Kepler diskuttieren auch wenn es nichts neues gibt.
Dies ist aber nicht unbedingt ein neues Phänomen und vermutlich schon seit 1993 so.
 
Effe schrieb:
Tja, wenn Donanimhaber und Knalltüte OBR nix leaken bzw nichts hintenrum bekommen, gibts keine Infos.

OBR lag traurigerweise beim BD gar nicht weit daneben, aber bei der HD7970 hat er sich eindeutig verspekuliert (http://www.obr-hardware.com/2011/12/amd-radeon-hd-7000-fiasco-as-bulldozer.html). So gesehen sollte man solchen Quellen schon mal grundsätzlich sehr wenig Vertrauen schenken - das ist aber eh fast jedem klar...

Persönlich sehe ich das Verhalten Nvidias auch als eigenartig an - passt irgendwie nicht zu ihnen. Wahrscheinlich haben sie schon wieder mal mit der TDP Probleme. Anders kann ich es mir nicht erklären. Diesmal stehen die Chancen nicht schlecht, dass AMD am Drücker bleibt. Wenn Nvidia kommt, kommt AMD mit OC Karten und könnte die Performancekrone theoretisch behalten.
 
hi

ich zitiere mich mal selber aus nem anderen
Thread weil ich finde das mein aussage von damals
gut zu den neusten Gerüchten passt

Hi

und hier die passenden Gegengerüchte:

Alles "Nvidia nahe Quellen" und OEM`s

Heisse neue Gerüchte + Kepler Roadmap

Mein Japanisch ist hm gibt es nicht, aber mit Hilfe von Goggle
stellen sich gewisse Punkte heraus:
(die Namen in Klammern dienen nur zur
Verdeutlichung der Leistungsklasse)

Anfang April-->GK107 Entry / OEM (GTX620-GTX650)

Anfang Mai--->GK106 Mainstream (GTX660/Ti?)

Ende Juni---->GK104 Performance (GTX670)

Ende Juli----->GK110 High End (GTX680)
GK110 besteht aus 2 stark beschnittenen GK104

Ende Dez.---->GK112 Enthusiast (GTX690)

Das sieht erstmal komisch aus,
macht aber wenn man weiterliest durchaus Sinn.

Laut Leistungseinschätzung von NV an die OEM`s
soll der GK104 gute 25% schneller sein als eine GTX580.
Dabei aber auch 250W ziehen.

Um überhaupt dieses Jahr noch GK110 und GK112
bringen zu können geht Nvidia einen "praktischen" Umweg:

In der Tat ist NVIDIA in einem Entwicklungsstadium der PCI Express Gen.3, die auch die PCI SIG übernehmen wird und bat darum, Standard 400W liefern zu können.

gruss Digger
 
GK110 besteht wahrscheinlich nicht aus 2x GK104, das ist offenbar eine reine Vermutung.
 
@digger66a
Das ist Blödsinn weil:

1.)
25% schneller als eine GTX 580 bei gleichem Verbauch ist hirnrissig.
Allein ein 580er Shrink auf 28nm würde hier schon 40% einsparen.

2.)
NVIDIA vergibt keine Codenames, für DualGPU Karten.

3.)
Anfang April als Release für die mobilen Ableger der GK106/107 Karten klingt zwar logisch, weil man dann zeitgleich mit Ivy Bridge kommt, aber die Dinger sind dann auch schon jetzt in der Produktion, um die Masse liefern zukönnen.

Wenn NVIDIA aber schon die kleinen Kepler fertig hat, dann ist man auch mit den großen Keplern fertig,
denn NVIDIA hat bisher immer "von oben nach unten" entwickelt.
Der Grund warum man noch nicht veröffentlich, dürfte ganz einfach an den Produktionskosten liegen.

AMD muss 550 USD für einen Chip mit 365mm^2 nehmen,
dass sagt eigentlich schon alles, wo die 28nm Yield liegt.
Ein Quartal weiter und die Welt sieht eventuell ganz anders aus.

NVIDIA will ja Geld mit ihren Chips verdienen, auch mit High End.
 
Zuletzt bearbeitet:
hi

Ich sag ja auch nicht das alles stimmt aber vieles
macht halt jetzt so langsam Sinn.

Und ja ich denke Keper ist fertig, auch die grossen.

Allerdings kommen die noch nicht weil TSMC die Produktion
einfach nicht hinbekommt (TDP)

Und einen GK104 mit 25% über gtx580 wäre doch gut,
und wenn die Prod. dann gut läuft wird der auch nur 200W nehmen

TSMC behindert NV in der Hinsicht doch sehr.
AMD zwar auch aber anscheinend nicht ganz soo stark.
Ein Quartal weiter und die Welt sieht eventuell ganz anders aus.
Sehe ich genauso.

Da es aber noch keine "echten" leaks gibt
ist alles was je über Kepler gebracht wurde
aus der Glaskugel.
Denke da sind wir uns einig.

gruss
 
jetzt kommen die Grakas mit DX11.1 Support? ich frage mich welche Games das sind? Abwarten, die Sache wird immer spannender... :) Bei Support DX12 würde ich wieder zuschlagen^^
 
@aklaa

DX Specs gibt ja nicht irgendein Grafikkartenhersteller sondern Microsoft vor.
Jetzt kommt mit Win8 erst mal DX11.1.

DX12 wird wohl erst mit dem Nachfolger von Win8 eingeführt. Da können noch etliche Jahre ins Land ziehen.
 
Die DX-Specs werden nicht nur von Microsoft festgelegt - Intel, Nvidia, AMD und Co. sitzen da ebenfalls im Boot.
 
Laut den letzten Spekulationen könnte es ja im Februar schon mit der GTX 680 von Nvidia losgehen. Bin gespannt was uns erwartet und wie Sie sich gegenüber der 7970 schlägt!
 
Wo ist die DX11.1-Beta? Würde ich gerne mit meiner GK104-Karte testen *SCNR*
 
Ich will ein Trinity-"Ultrabook", nicht IVB samt Geforce in was Größerem.
 
Zurück
Oben