News Nvidia kündigt offiziell die GeForce GTX 295 an

Hallo,

mich würde mal interessieren welche Menge an Daten ne GTX 280 pro Sekunde über den PCI-e slot ..schiebt bzw zieht.. ka ^^
PCI-e 2.0 schafft ja laut Wiki 500 MByte/s pro Lane.

Reicht das für 2 Chips über einen Slot?
Sry falls die Frage dumm ist aber ich hab da nich so Plan von :rolleyes:

EDIT:

Muss ja reichen sonst würden die Herrn bei Nvidia nich so ne karte bauen :D
Aber ich würd das generell mal gern wissen!

Mfg evil
 
Zuletzt bearbeitet:
schon wieder ne neue graka die keiner braucht, ne gtx 260 oder 4870 reicht doch vollkommen aus oO

ich hätte es besser gefunden eine graka zu bauen die kleiner, leiser und stromsparender ist. dei sollten sich mal langsam gedanken über neue technologien machen sonst werden die grakas im laufe der zeit viel zu groß!

design ist ganz gut aber kennt man bereits schon vom vorgänger.
 
Was ich mcih frage ist,warum eine Karte die einfach nur für Verschwendung und Prestige entwickelt wurde,in manchen Bereichen im Vergleich zur GTX280 abgespeckt wird,man könnte also noch schneller sein.
warum wird geht man dann bei der Entwicklung einer solchen Graka nicht gleich in die Vollen ???
 
@Jimmy_1991
So leicht ist das auch nicht immer. In diesem Fall könnte man einfach doppelten so große Speicherchips einsetzen, aber bei ner GTX280 zB ist das nicht möglich, da es mit der Taktrate keinen so großen Speicher gibt.
Man müsste dort also 16 weitere Speicherchips auf dem PCB unterbringen, was mitunter nicht immer leicht ist.

Und zum Thema 350W. Wenn sich nVidia an die PCIe 2.0 Richtlinie halten will sind mehr als 300W gar nicht erlaubt.
 
@pantherfibel
seit wann hast du die cpu so übertaktet und läuft die mit luft kühlung?
habe nämlich die gleiche^^

Seit ziemlich genau einem Jahr. Ja Luftkühlung.

MFG Pantherfibel
 
Das ist doch eine Multi core karte warum muss Nvidia sich dann an die spiel regeln die für ein PCIe slot gelten halten. Was ich meine ist warum nicht einfach 2PCIe 2.0 Slots belegen dann noch ein mainboard mit 4PCIe 2.0 Slots bauen und dann hätte man SLI. So könnte eine Graka 600Watt ziehen und wer sich umbedingt eine gute Graka leisten will bezahlt auch denn aufpreis für das mainboard.

Und zu dem anderen wenn es keine 1792 MB respektive 2GB in der taktrate gibt dann muss man eben wie du schon sagtest noch 16 Speicherchips draufpacken. Das kann für einen konzern der transistoren herstellen kann die nur 55nm groß sind so schwer nicht sein. Oder? Klärt mich auf wenn ich da was übersehe^^

@evilG23 wir wollen dich nicht ignorieren aber ich für meinen teil weis es leider nicht

Thanks Pantherfibel^^
 
Zuletzt bearbeitet von einem Moderator:
Die für mich interessanteste Information an dieser News: Der 55nm GTX kommt Anfang Januar. Mal sehen, ob man diesmal halbwegs sparsam agieren kann.

Wenn "ja", würde ich mir durchaus eine kaufen.

Achja:
- Es heißt noch immer Nvidia.
- Der Dollarpreis wird ungefähr 1:1 umgerechnet.
 
Zuletzt bearbeitet:
OMG, 289W... ganz klar ne Entwicklung in die Falsche Richtung. Ich meine zur Not könnte ich den Stromverbrauch ignorieren, aber das Ding wird sicher auch extremst laut sein! :(

Echt schade. Bei so einer Karte erwarte ich eigentlich 4x DVI bzw. 3xDVI und 1x HDMI. ^^
 
Na ja, mag ja sein das die eine gute Leistung hat und sehr wahrscheinlich auch besser ist als die HD 4870 X2. Trotzdem finde ich, das die Karte nicht im geringsten eine Neuerung oder was besonderes ist.

ATI machts vor:

Dual GPU auf EINER Platine, gewohntes Kühldesign, annehmbares Design (Referenz)

nVidia...

zwei Platinen, Kühler irgendwo dazwischen geklatscht und hässliches Design (Referenz)


Meiner Meinung nach eine zusammen geschuhsterte Notlösung, um die HD 4870 X2 zu übertrumpfen. So wie ich nVidia kenne verlangen die wieder ein Vermögen für so nen Blödsinn (wie mans sieht).
 
@ Pantherfibel

Siehst du, womit Fud benchen? Wenns ein fetter Core i7 ist, dann ist zB bei FC2 klar, warum da die Karten enger zusammen sind.

cYa
 
Tomshardware ist mal wieder nicht zum aushalten. Der Test ist eher eine Pressemitteilung von NV als ein vernünftige, journalistische Arbeit.

http://www.tomshardware.com/de/geforce-gtx-295,testberichte-240224.html

Geradezu brüllend komisch wie THG meint erklären zu können warum es denn gar nicht so schlimm ist von NV vorgeschriebene Spiele zu testen. Ist ja alles voll normal....

Zudem handelt es sich bei TWIMTBP um nicht mehr und nicht weniger als einen von Nvidias Wettbewerbsvorteilen. Ein Developer-Relations-Programm, das die Leistung unabhängig geschriebener Software auf Firmen-Hardware optimieren soll, ist sinnvoll, solange dadurch nicht gleichzeitig der Wettbewerb behindert wird. Und angesichts der Häufigkeit, mit der Nvidia-Karten im letzten Jahr von AMD-Karten übertroffen wurden, scheint das Programm derartige hinterlistige Ziele wohl kaum zu verfolgen.

Wie bitte? Soll das eine stichhaltige Begründung sein die Benchmarkauswahl auf einen Hersteller spezifisch auszurichten?


Laut Nvidia wird die GeForce GTX 295 bei der nächsten CES im neuen Jahr, das heißt in wenigen Wochen, auf den Markt gebracht. Sie wird € 370 kosten – entsprechend dem Online-Verkaufspreis der Radeon HD 4870 X2 – und am Veröffentlichungstag online zu erwerben sein.

Wer glaubt denn bitte wirklich das die GTX 295 zum Verkaufstart für den Preis und dann noch lieferbar sein wird? Wieviel soll denn dann noch eine GTX 260 bzw. GTX 285 kosten?

Hauptsache wir halten die Käufer davon ab zum Weihnachtsgeschäft eine ATI Karte zu kaufen indem, wir illusorische Preisangaben verbreiten für Produkte die erst in einem Monat lieferbar sein werden, wenn überhaupt.
 
Zuletzt bearbeitet:
HL2Striker
Fehlt nur noch deine Begründung, was an einem PCB besser ist.
Aussehen ist übrigens Geschmackssache, aber eine 4870 X2 in dem Vergleich als Schönheit zu bezeichnen ist schon arg.
 
hallo =)

weiß vielleicht jemand, wofür diese beiden knöpfchen hinten am slotblech sind?. bei dem einen knöpfchen ist das powersymbol und bei dem anderen ein monitor-piktogramm. kann man etwa eine karte auf tastendruck ausschalten?
 
Zuletzt bearbeitet:
HL2Striker schrieb:
Na ja, mag ja sein das die eine gute Leistung hat und sehr wahrscheinlich auch besser ist als die HD 4870 X2. Trotzdem finde ich, das die Karte nicht im geringsten eine Neuerung oder was besonderes ist.

ATI machts vor:

Dual GPU auf EINER Platine, gewohntes Kühldesign, annehmbares Design (Referenz)

nVidia...

zwei Platinen, Kühler irgendwo dazwischen geklatscht und hässliches Design (Referenz)


Meiner Meinung nach eine zusammen geschuhsterte Notlösung, um die HD 4870 X2 zu übertrumpfen. So wie ich nVidia kenne verlangen die wieder ein Vermögen für so nen Blödsinn (wie mans sieht).

Manche leute haben echt Probleme, mehr fällt mir dazu nicht ein, ah doch noch was, die erste Dual GPU Karte auf einer Platine kam sicher nicht von ATI, also können sie es auch gar nicht vorgemacht haben...
 
@konsument
das eine ist auf jeden fall eine led oder?
also als schalter würde ich das nicht sehen, zumal der extrem schlecht erreichbar wäre, wenn die karte eingebaut ist und montor angesteckt.

mfg

edit:
die 295 wird definitiv schneller sein, als die 4870 x2. da muss man kein hellseher sein, um das zu wissen.
und wie eine karte gebaut wird und aussieht ist auch völlig egal, solange sie nicht rosa ist :D

mfg
 
Zuletzt bearbeitet:
@redfirediablo: "Hauptsache wir halten die Käufer davon ab zum Weihnachtsgeschäft eine ATI Karte zu kaufen indem, wir illusorische Preisangaben verbreiten für Produkte die erst in einem Monat lieferbar sein werden, wenn überhaupt. "

Wenns klappt? Niemand wird gezwungen eine solche Karte zu kaufen. Zudem kann keiner erwarten, bei nem Markt wo es nur 2 Spitzenteams gibt, sich irgendwas zu schenken.
 
ich kann mir kaum vorstellen, das sich so viele diese karte kaufen werden/wollen.
das ist einfach nur ein prestige-objekt um wieder die performance-krone zurückzubekommen.

obwohl sie die ja theoretisch auch schon vorher hatten, wenn man von einzelkarten redet.
aber jedem das seine.

mfg
 
Ein Paperlaunch (mit ausgewählten Spielen) um die Verkäufe des momentan überlegenen Konkurrenten zu verzögern ist schon eine ziemlich miese Taktik.

Dann aber noch 370 Euro lieferbar in einem Monat auszugeben ist unterste Schublade. Ich halte es für sehr sehr sehr unwahrscheinlich und würde ziemlich viel Geld darauf wetten das das NICHT der Fall sein wird. Ich gehe von Preisen von etwa 500 Euro aus. Alles andere wäre für Nvidia wirtschaftlicher Selbstmord bei der Diegröße. Einen Preiskrieg gegen ATI können sie momentan einfach nicht gewinnen.

Die GTX 295 sind praktisch 2 GTX285 mit minimal weniger Speicher. Das würde bedeuten, dass eine einzelne GTX285 für etwa 200-220 Euro in einem Monat zu haben wäre. Glaubst du das wirklich?
 
Zuletzt bearbeitet:
So nicht richtig. Keine 2 GTX 285 sondern eine Mischung aus den Shaderdingens der GTX280 und den Takt sowie SI und VRam Daten der GTX260.

Den Preis einfach geschätz zu halbiern wäre Wahnsinn.

Kann Intel einen Preiskrieg gegen AMD gewinnen? Stehen dennoch oben. Nur eine Marketing/Image Frage.

Zudem glaub ich nicht das du weißt was nV für den DIE selbst bezahlt. Genausogut könnte man sagen, ATi zahlt beim GDDR5 auch um ne Stange mehr.

Des weiteren spielt doch bei so ner Karte die Verfügbarkeit kaum ne Rolle. Wer erwartet hier schon hohen Absatz? Solange du sie irgendwo in D bekommst isses i.O ^^
 
in manchen Bereichen im Vergleich zur GTX280 abgespeckt wird,man könnte also noch schneller sein. warum wird geht man dann bei der Entwicklung einer solchen Graka nicht gleich in die Vollen ???
Darum: https://www.computerbase.de/forum/attachments/power_gtx-png.102733/

Schon wieder ne neue graka die keiner braucht, ne gtx 260 oder 4870 reicht doch vollkommen aus oO
Was ich mcih frage ist,warum eine Karte die einfach nur für Verschwendung und Prestige entwickelt wurde
https://www.computerbase.de/forum/threads/programme-die-mit-der-gpu-rechnen.426771/#post-4303110
NV baut die Grafikkarten ja nicht nur für dich zum spielen, sondern hat in letzter Zeit vorallem das GPGPU Segment im Auge. Und gerade auf die GTX 295 wartet man schon mit länger, wird sie die 9800X2 als aktuell schnellste GPGPU Karte ablösen können und unter extremen Bedingungen(4x GTX 295) ihren Job erfüllen können? Gerade für solche Systeme wie den Fastra ist die Kühllösung extra so designt worden und nicht damit jeder die Karte optisch ansprechend findet.


ATI machts vor:

Dual GPU auf EINER Platine, gewohntes Kühldesign, annehmbares Design (Referenz)

nVidia...

zwei Platinen, Kühler irgendwo dazwischen geklatscht und hässliches Design (Referenz)

Meiner Meinung nach eine zusammen geschuhsterte Notlösung, um die HD 4870 X2 zu übertrumpfen. So wie ich nVidia kenne verlangen die wieder ein Vermögen für so nen Blödsinn (wie mans sieht).

Zusammengeschusterte Notlösungen schauen anders aus:

Overall Nvidia did a good job with the GTX 295. The 55nm GT200 performs well and it's a step in the right direction. It's not very quiet, but not too loud either and the power consumption is high, but this is a top of the range card so power consumption is not a priority. However, this is not to say that it's the worst power-hog around, far from it, as it consumes less than HD 4870 X2 in both idle and workload scenarios, which is really impressive especially after taking today's results into consideration.

MfG Kasmo
 
Zurück
Oben