News Erscheint Nvidias „Kepler“ als GK104-Grafikchip am 23. März?

uh uh mit meiner igpu weiß ich einfach nicht welchem fanboylager ich beitreten soll!1

wartet doch mal ab, bis der chip da ist und tests vorliegen. dann ist noch immer genug zeit für epeen messungen.
hoffentlich tut sich was an den preisen, wenns wieder konkurrenz gibt. kommt beiden lagern zugute.
 
Wer sagt überhaupt dass man jetzige Kühler immer auf neue Karten montieren kann? Sicher wäre es schön und bei einigen geht es auch, aber irgendwann ist mal Schluss, ob es einen gefällt oder nicht.
Und es gibt jetzt schon Grafikkarten Kühllösungen die 5 Slots einnehmen, der EKL Peter ist z.B. so einer.
 
@rico

Deiner Argumentation würde ich ja folgen können, wenn der Turmstromanschluß ein technisches Muß wäre.

Aber schaue dir das PCB an - völlig unnötig solch einen eher hinderlichen Stromanschluß zu verbauen, da direkt daneben ja auch schon die Infrastruktur für einen zweiten flachen Anschluß gegeben ist. Insofen bleibts dabei: diese Lösung ist imho fail!
 
@boxleitnerb

^ wie wäre es mit Nachdenken?

Diesen unnötigen Kommentar kannst du auch einfach stecken lassen.

Aber manche lassen sich ja ohne Not von der Industrie gerne gängeln wenn es um ihre favorisierten Grakahersteller geht.^^
 
Ich war auch froh das AMD bei den HD7xxx nicht den gleichen Fehler gemacht haben den zweiten DVI übereinander verbaut zu haben und
habe immer neidisch auf die 1-Slotleiste von nvidias gt5xxx Karten geschaut.

Nun dieses ...... Muahhhaaa !!!
 
Athlonscout schrieb:
@boxleitnerb



Diesen unnötigen Kommentar kannst du auch einfach stecken lassen.

Aber manche lassen sich ja ohne Not von der Industrie gerne gängeln wenn es um ihre favorisierten Grakahersteller geht.^^

Genau wie du dein "fail" steckenlassen kannst, wenn es für so einen Anschluss durchaus logische Gründe geben kann. Und die stealth-Fanboykeule kannst auch gleich wieder einpacken, das wird langsam alt.
 
Artikel-Update: Passend zur CAD-Zeichnung gibt es jetzt aus Asien auch ein Bild der vermeintlich echten Karte. Dort findet man den gestapelten Stromanschluss ebenso wieder wie die bereits bekannten Anschlüsse für DVI, HDMI, DisplayPort und die komplette Stromversorgung.

[Bilder: Zum Betrachten bitte den Artikel aufrufen.]

Anhand der Speicherbestückung lässt sich ableiten, dass ein 256-Bit oder 512-Bit-Speicherinterface genutzt wird, wobei letzteres für eine Perfomance-Karte unrealistisch erscheint. Als Stromversorgung dürfte maximal ein 8-Pin sowie 6-Pin-Stromstecker verbaut werden, die entsprechende Pin-Belegung hatte die CAD-Zeichnung offenbart.
 
boxleitnerb schrieb:
Genau wie du dein "fail" steckenlassen kannst, wenn es für so einen Anschluss durchaus logische Gründe geben kann.

Diese "durchaus logischen Gründe" kann ich beim besten Willen nicht nachvollziehen und sehe weiterhin keinerlei Notwendigkeit für so eine, sagen wir eigenartige Lösung.

Da hast du anscheined deutlich mehr Fantasie wie ich (ders ja, wenn man dir Glauben schenkt, mit dem nachdenken nicht so hat).:D

@Ameisenmann

scheint ja auch diesmal ohne Heatspreader auszukommen.
 
maddinattack schrieb:
Erst mal gucken was Nvidia da auf die beine stellt und dann dürfen wir uns die mäuler zerreißen, wobei ich finde Nvidia muss schneller sein bei weniger strom verbrauch und wenn es nur 5% sind..

NVidia und niedriger Stromverbrauch ist so eine Sache. :lol:
Wäre aber zur Abwechslung mal etwas.
 
Ameisenmann schrieb:
richtig klein die GPU für ne Nvidia :D

Als Bezugspunkt kann man nur den SLI-Anschluss nehmen. Wenn ich da so überschlage komme ich auf rund 310 mm². Aber da ist nixx richtig nachgemessen jetzt, also nicht festnageln pls :p
 
terraconz schrieb:
Weiß eigentlich von euch wann AMD CUDA auf seinen GPUs zulässt? Gibts da schon ne offizielle Verlautbarung?

AMD selber rührt es nicht an. Warum auch? Sie haben nicht die Lizenzen und haben sicher nicht vor Nvidias Technik anzubieten.
Aber jeder der es versuchen möchte kann dies selber tun AMD hindert einen nicht daran.

terraconz schrieb:
Sie haben es doch geöffnet vor nicht all zu langer Zeit oder hat sich da wieder was geändert?

Naja wirklich geöffnet haben sie sich nicht. Viele Komponenten waren vorher schon OpenSource daher war der nutzen eher gering.
 
Wer kauft heute noch Nvidias Grafikkarten?????:freak::freak::freak::freak::freak:

Das einzige gute an diese Karten? Sobald sie kommt, fallen die Preise bei AMD.

Mehr aber nicht...;)
 
Auf der einen Seite sehe ich die ständigen Vertröstungen auf einen späteren Releasetermin - ursprünglich war Kepler ja für einen Verkauf im Jahr 2011 eingeplant - und denke mir, dass daraus nichts werden kann. So ähnlich war das bei der ersten Fermi-Generation doch auch und am Ende hatte man einen leistungsstarken Grafikchip, der aber wegen des sehr hohen Stromverbrauches gebremst werden musste.

Andererseits ist es aber auch möglich, dass sich nVidia dieses Mal wirklich etwas mehr Zeit nimmt und die kommende 600er Generation auch so gut als möglich zu optimieren versucht. Wenn man sich die abenteuerliche 6pin-Konfiguration ansieht, könnte es mal wieder am hohen Stromverbrauch liegen.


Mir kann das aber alles ziemlich egal sein. Vor ein paar Tagen habe ich mir eine 6870 gekauft, weil ich eine gute Spieleleistung zum günstigen Preis benötige. Solange nVidia mit ihren neuen Produkten in diesem Preisbereich mit einem Spitzenprodukt keine Revolution anzettelt, werde ich mich darüber auch nicht ärgern.
 
vitel09 schrieb:
Sobald sie kommt, fallen die Preise bei AMD.

Tja wer nicht mithalten kann, muß halt die Preise senken, so einfach ist das.:evillol:
 
Wir bauen doch auch in die Höhe, wenn wir keinen Platz haben, siehe Hochhäuser. Falls der so gewonnene Platz sinnvoll genutzt werden kann, finde ich die Lösung überzeugend. Besonders da bei der bisherigen Lösung der Platz über den Stromanschlüssen frei war.
 
Zurück
Oben