News GeForce GTX 900: Nvidia überspringt die GeForce GTX 800 im Desktop

derMutant schrieb:
Gut,
Aber unterm Strich lohnen sich IMHO lukü Karten mehr.
Du bist flexibler und musst keinen early Adapter Bonus drauf zahlen.
Und von den custom Karten ist meistens eine dabei die unter Last unhörbar ist und gut kühlt.

"Unhörbar" ist in dem Fall aber auch eher eine relative Beschreibung, keine absolute.
Ich hab mir vor kurzem die Gigabyte GTX 750ti mit dem gleichen Kühler wie hier im Test gegönnt. Leider ist sie selbst unter Windows mit Abstand das lauteste Bauteil im meinem PC. Ich ärgere mich keine passive Karte genommen zu haben.
So gesehen kann man derLordselbst schon verstehen. Man kann sich eben an Luxus gewöhnen.

@Topic
Ich finde es gut, dass man die GTX8xx auslässt. Wenn Nvidia jetzt noch den Cut macht und nicht wieder alte Karten umlabelt, dann sind "wir" wieder versöhnt. Andererseits ist Nvidia meine Sympathie wahrscheinlich völlig egal, so lange ich ihre Grakas kaufe...
 
Der Name ist so egal,das einzige was zählt ist,dass sie 30% schneller ist als die 780ti,denn nur dann wird sie gekauft.
 
Auch wenn hier jeder über Leistung redet, finde ich viel interessanter was die neuen Generationen an Anschlüssen bieten werden.

Denn in der heutigen Zeit mit aufsteigenden 4k und 1440p@144hz sind 3x Displayport Pflicht. Geg. noch ein HDMI 2.0 dazu.
 
Geht jetzt der Nummerierungswahnsinn wie bei den Browsern (Chrome und Firefox) los?
Normalerweise hätten wir jetzt für die Flaggschiffe von Fermi-Kepler-Maxwell die Bezeichnungen GTX300-400-500, also 380-480-580 und die Refreshes halt x85 oder x90 hinten. Alles darunter halt niedriger nummeriert.
Aber nö! Schön immer wieder überspringen und Chips auf mehrere "main release Bezeichnungen" verteilen!

Hinzu kommt, dass GTX970/980 wahrscheinlich wieder "nur" die obersten Mittelklasse Karten werden, wie eben Kepler bei GTX680 und der High End Chip GM110 oder GM100 erst später kommt, nachdem alle die Kohle für das vermeintlich Flaggschiff, natürlich zum High End Preis (>400,-) ausgegeben haben.
Die Verarschung fällt dann nur nicht so auf, da einfach wieder eine Generation höher nummeriert wird (GTX1090?) und im Preis gesenkte GT.9.. dann ins GT.10.. - Schema umbenannt werden (wie GTX760 und 770).

Wie immer sollte man sich diesen Affenzirkus nur von der Ferne anschauen und über die behinderten Fanboys lachen hehe.
Wenn wirklich neue Hardware gebraucht wird, wird eben wieder verglichen und werden Tests gelesen, ganz pragmatisch und ohne Gefühleentschieden und gekauft. Denn: hardware kauftman dann, wenn man sie braucht, nicht früher und nicht später!
Aber das wissen die meisten hier im Forum ja eh.

MfG
 
Ah du scheinst der einzig Wissende hier zu sein. Ich als "behinderter Fanboy" habe durch dich gerade DIE Erleuchtung erfahren...
 
Gibt's hier schon halbwegs seriöse Spekulationen in Sachen Leistungssteigerung Gtx 780 --> Gtx 980?

Sollten da wirklich +40% drinnen sein, denke ich meine beiden 780er durch zwei 980er abzulösen.
 
Zuletzt bearbeitet von einem Moderator:
ronrebell schrieb:
Sollten da wirklich +40% drinnen sein,

Wohl kaum. Wenn die Dinger weiterhin in 28nm gefertigt werden, wird der nicht wesentlich schneller sein als der Kepler.

Hier könnte man lediglich über das neue Chipdesign noch ein bischen was rauskitzeln, aber das werden keine 40% sein.

Evtl. noch über DirectX 12, was dann aber nur für Windows und entsprechende Programme gilt.
 
Warum so schwer: Einfach wäre immer die Jahreszahl. Aber gut. So schlau sind die eben nicht. :evillol:
 
Hauptsache es werden auch die Leistungssprünge berücksichtigt, wenn man schon eine Namensgeneration übergeht!!! :D hahaha
 
AMD und nv werden sicher keine neue Gen rausbringen mit 700% Mehrleistung und nur 20W Verbrauch.
Leider ist das die Wahrheit, Jungs.

Ernsthaft: 40% Mehrleistung und dann soll Sie nur 200W verbrauchen - is klar :streicheln::streicheln::
 
TheDarkness schrieb:
Die Jahreszahl? Wie sieht das den aus?
Geforce 2014 (1-9) (ti) ? Klingt find ich nicht so toll :P

Die 20 könnte man sich sparen, Jahr - Leistungklasse - Zusatz reicht.

Geforce 1490
Geforce 1480 Ti
Geforce 1480
Geforce 1470
Geforce 1460
Geforce 1450

Geforce 1590
Geforce 1580 Ti
Geforce 1580
Geforce 1570
Geforce 1560
Geforce 1550

und so weiter ...

edit: Ok eine 1450 hört sich dann für manchen schneller an, als eine 1380. :D
 
Zuletzt bearbeitet:
Mindestens 4Gb / um die 500€ / mindestens 20% mehr an Leistung gegenüber der 780 = gekauft :D
 
Ich verstehe nicht wieos Nvidia die neue Grafikkartenserie nicht GTX 8xx nennt.Gerade die Zahl "8" ist doch bei Nvidia eine wichtige Zahl, da jedes Topmodell immer eine 8 im Namen hat.
 
Wenn ihr heute schätzen müsstet, (aka was sagt eure Glaskugel...) was erwartet ihr für eine ungefähre TDP bei der GTX 960? Die 760er zog soweit ich weiß 170 Watt...

Ich frage deshalb, weil ich plane, die Grafikkarte in einem Dell Power Edge T20 Xeon 3,2GHZ | 8GB RAM einzusetzen.
Dieser hat aber nur ein (nicht wechselbares da mit dem Mainboard spezielle Steckverbindungen) 290 Watt Netzteil (immerhin 80+)


Ich würde dann die GTX960 mit einem Sata-Strom-auf-PCIe Adapter versorgen, da 75 Watt bereits über den PCIe Slot bereitgestellt werden, will ich aber nicht mehr als ca 50 Watt über Sata beziehen, da mir das sonst etwas zu heikel wird in sachen Spannungsversorgung.

Wäre es eine 120-130W TDP Grafikkarte, wäre es wohl grenzwertig aber machbar, oder was meint ihr? Zieht sich bei so einem Szenario die Grafikkarte die ersten 75Watt aus dem PCIE Slot und die + X aus dem Stromkabel oder ist das immer 50%? Im letzteren Fall kann ich das wohl dann doch ganz knicken, da ich ja dann selbst bei einer 100W TDP Grafikkarte schon bei 50W über den armen kleinen Sata-Stromkabel wäre... :freaky:
 
Blueeye_x schrieb:
Gerade die Zahl "8" ist doch bei Nvidia eine wichtige Zahl, da jedes Topmodell immer eine 8 im Namen hat.

GTX 980 ... merkste was? :D
 
@SimonK91
Zieht sich bei so einem Szenario die Grafikkarte die ersten 75Watt aus dem PCIE Slot und die + X aus dem Stromkabel oder ist das immer 50%?

Sowas kann man nicht pauschal sagen. Ne R9 290X zieht zum Beispiel nur 4W aus dem Slot und 239W über die Stromkabel. Ne GTX 780 zieht 42W über den Slot und die restlichen 191W über die Stromkabel.
 
Matzegr schrieb:
@SimonK91


Sowas kann man nicht pauschal sagen. Ne R9 290X zieht zum Beispiel nur 4W aus dem Slot und 239W über die Stromkabel. Ne GTX 780 zieht 42W über den Slot und die restlichen 191W über die Stromkabel.

Also diese Antwort wundert mich am meisten von allen Möglichen, das hätte ich nicht gedacht. Inwiefern ist das denn Messbar?
 
Zurück
Oben