News GeForce GTX 595 tritt gegen Radeon HD 6990 an?

@Pickebuh

Was willst Du uns eigentlich mit deiner Theorie beweisen? Das die kommende pöse pöse Nvidia GTX "595" alle Boards evtl. zerstören kann?

Leute lasst euch mal was anderes einfallen, erst wars der "exorbitante" stromverbrauch der Nvidias. Dann die Ausbeute, die ja unterirdisch sein sollte bei dem "großen" Chip. Anschließend hieß es Nvidia hat sein ganzes Pulver mit der GTX 480 für über ein Jahr verschossen. Nun wird der Running-Gag das die Leistungsaufnahme der "GTX595" alle boards zerstört oder wat?

Einige Leute (oder sollte man sie Fanboys nennen?) denken wohl, das bei Nvidia nur vollidioten arbeiten und deren Produkte in ner Hinterhofgarage gefertigt werden!?

meine Fresse ... :freak:

Lustigerweise laufen die aktuellen Nvidias und das nicht schlecht, lieferbar sind sie auch. Wen die "Unterhaltskosten" ans Limit bringen, der sollte generell darüber nachdenken ne Daddelkiste zu betreiben. Brav Fahrrad fahren, gegen Atomkraft demonstrieren, geile Bäume an jeder ecke Pflanzen und immer schön Müsli und Tofu essen!
 
Zuletzt bearbeitet:
@ Pickebuh ... das was du meinst nennt man "Restrisiko" und das haste jetz schon bei etlichen Karten ... das passiert halt ma damit muss man leben.

Und für Leute, die gerne un viel an ihrem Rechner rumbasteln, das als ihr Hobby ansehn und wie jeder Autoschrauber oder Briefmarkensammler immer weiter neue Teile besorgt, ist das halt kein Ding ma mehr Geld/Strom/Risiko in kauf zu nehmen um halt was geiles zu haben.

NVidia hat ganz klar die Nase vorn und da ändert auch kein exorbitanter Stromverbrauch oder Geldbörsefressende Preise was dran.

Wer das will der solls doch haben is doch ok. Von irgendwas muss die Entwicklung ja angetrieben werden.
 
Ich hatte 2 295er drin. Die Probleme sind den Spass nicht Wert meiner Meinung nach zumindest.

1. Wurden die Dinger so heiß, dass der Rechner abgeschmiert ist und ich rede hier von Crysis und nicht von FurMark.

Daraufhin hab ich eine der Karten wieder rausgeholt und verkauft. Das Hitzeprob blieb bei der 2. jedoch bestehen, dauerte nur länger bis sie zu heiß wurde.

Also hab ich ne WaKü draufgeschraubt. Dann war erstmal ruhe. Nun scheint irgendwas mit der Karte wieder nicht zu stimmen, in manchen spielen habe ich ein sehr merkwürdiges flackern, das nur weg geht, wenn ich im Nforcer den SLi-Mode auf Single stelle.

Das kann es irgendwie nicht sein und schon gar nicht für den Preis, daher werde ich in Zukunft die Finger von Dual-Chip Karten lassen. Hobby hin oder her.
 
Waren das eigentlich Rev 1 (Dual PCB) oder Rev 2 (Single) 295er?

Meine bisher einzige Dual GPU Erfahrung hab ich mit der 7950GX2 gemacht... und die war derartig schlimm, dass ich das nicht so schnell wiederholen werde ;)
 
@Ganzir
Dafür gibt es Wasserkühlung wer solche Karten mit Luft fahren will muss ansonsten schmerz frei sein.
Hoffentlich kommt sie so im voll Ausbau:D
Würde sobald Wasserkühler da führ zu haben sind das Teil dann richtig auf Trap bringen.;)
Echt das wäre ein Hammer so eine Karte.
Haben wollen.
 
Triple EXTREEEEEEEEEEEEME!!!!!!!!!!!!
Die Karte wird EXTREM HOT, EXTREM Strom vernichtend aber auch EXTREME Leistungsfähig.
Aber ein Vollausbau des GF110 ist in jedem Fall denkbar, denn eine relativ hohe Senkung der Taktraten bei zwei Chips und noch ein wenig Selektion hat scho ne ziemliche Auswirkung auf den Verbrauch und damit auf die Hitzeentwicklung. Das wird von einigen hier denke ich vernachlässigt.
Die Karte wird ein Monster und wird denke ich in jedem Fall kommen. Es sind noch nie Bilder und Gerüchte von solchen Karten im Netz rum geflattert, die dann am Ende doch nicht released wurden.

Aber noch ein Wort zu SLI/CrossfireX:
Probleme mit SLI/CrossfireX kann man eigentlich fast ned beschreiben. Man muss sie erleben. Also bitte...bevor ihr nicht ca n Jahr mit nem SLI/CrossfireX System gearbeitet habt, urteilt nicht darüber.
Ich hatte ne Zeit lang zwei 8800gts 512 und es war nicht so toll wie ichs mir erhofft hatte.
Von mir bekommt SLI keine Empfehlung.

NVidia hat ganz klar die Nase vorn und da ändert auch kein exorbitanter Stromverbrauch oder Geldbörsefressende Preise was dran.
Genau!!!
Wer hier mit Effizienz oder Preis-Leistungsverhältnis ankommet, hat den Sinn von solchen Karten ned verstanden.
 
Zuletzt bearbeitet:
Hehe... Es lebe green IT... Die Karte verbraucht nach den erwarteten 500W ja nur Dreihundertquetsch... Das zeigt das wir Grün sind!

Wie nen Porsche der statt 20 Liter nur 18 auf 100km braucht ^^

Sarkasmus aus ^^
 
3 Slot Kühler? O.o
Kann mir nicht vorstellen, dass man es anders kühl genug bekommt.
Oder man wird die Chips so stark runtertakten, dass es nichts bringt.
 
Komische entwicklung. Immer nur schneller und schneller , egal wie .

Dabei würd ich mir sogern ne vga wünschen die gute Leistung hat und schön sparsam zu werke geht
 
Pickebuh schrieb:
Das Mainboard bzw. der PCIe-Slot ist für so einen Fall auf 300 Watt spezifiziert und kann solche kurzzeitige Entladungen vertragen.

Aber wenn es mehr Watt sind, gibt es keine Sicherheit mehr und die Leitung auf dem Board wird beschädigt.
So etwas ist nicht die Regel, aber es kann passieren.

Wenn das Board 300w verträgt, dann wird es wohl bei 305w auch nicht kaputt gehen. Und bei 375w? Kann man da keine Widerstände auf die GraKa Löten, dass eben nicht mehr als 75w über den PCIe-Slot gehen?
Ich kenne mich nicht wirklich in der Elektrotechnik aus. Aber das sollte doch keine Problem für ein paar findige Ingenieure sein, oder?
 
Lustigerweise laufen die aktuellen Nvidias und das nicht schlecht, lieferbar sind sie auch. Wen die "Unterhaltskosten" ans Limit bringen, der sollte generell darüber nachdenken ne Daddelkiste zu betreiben. Brav Fahrrad fahren, gegen Atomkraft demonstrieren, geile Bäume an jeder ecke Pflanzen und immer schön Müsli und Tofu essen!

:D Nicht zu vergessen, dass man das Feuer in seiner Höhle dann nur mit bio pellets anzündet :evillol:
 
Ich hatte rund 7 Monate Meine HD5970 die mit 298 Watt Spezifiert ist bei 1000GPU/1200RAM 1,2 V :D
(Serie 725/1000 1.04V)am Laufen was soll ich sagen?
Das müssen locker 400 W gewesen sein und das bei 1*6+1*8Pin.
Das Mainboard hatt es überlebt.:cool_alt:
 
Auch zu dieser Karte bleibt nur eins zu sagen.Wahrscheinlich zu laut;wahrscheinlich zu teuer und ganz ganz sicher ein horrender Stromverbauch.

Ok es ist eine Dual Karte,da darf der Stromverbrauch auch etwas höher sein,aber selbst als Entusiast wäre mir das zu viel.

Nvidia sollte sich nicht wie beim G80 zu sehr auf der Fermi Architektur ausruhen und nach der 5..er Serie,wieder was energieeffizientes und leistungsmäsig attraktives auf den Markt bringen.

Ach ja und kann mir mal einer erklären,warum bei den Single Layer Dual GPU Karten immer noch Mikroruckler auftauchen? Das kriegen irgendwie beide Großfirmen nicht gebacken :)

Habe jetzt schon einige Crossfire und SLI Systeme gesehen und da habe ich nichts von Rucklern gemerkt.Das letzte Grauen in dieser Sache was ich sehen durfte war die 9800 GX2.Heiß und geruckelt ohne Ende.Daher lehne ich solche Karten nach wie vor grundsätzlich ab.

Greetz!
 
da fragt man sich wieder mal wozu!?

mit meiner 2 jahre alten kiste die damals komplett so viel gekostet hat wie das monster kosten wird, läuft immer noch alles auf 1080p und der komplette PC zieht auch noch weniger saft aus der steckdose als dieses monster, das einem die ohren wegschießt...

leistungskrone schön und gut, als p/l-fetischist enzieht sich das meiner logik sich sowas zu kaufen...
 
Henrico schrieb:
Ach ja und kann mir mal einer erklären,warum bei den Single Layer Dual GPU Karten immer noch Mikroruckler auftauchen? Das kriegen irgendwie beide Großfirmen nicht gebacken :)

Weil 'ne Dual-GPU Karte nichts anderes ist als 2 Single-GPU Karten !? Und zumindest bei nVidia braucht man weniger vor den Mikrorucklern als vor der zu erwartenen Hitze- und Lautstärkeentwicklung zurückzuschrecken. Bei AMD ist es genau das gegenteilige Spiel. Wie immer kann man nicht alles haben :D
 
Was haben hier denn welche fürn Problem mit Lautstärke , das ist normal bei so einer High-End Karte.
Wenn man nicht zufrieden ist , sollte man ganz unten bleiben bei den Billigen Karten.

die AMD HD6990 wird sich genauso anhören wie ein Staubsauger.
Da kann AMD sich warm anziehen , und die GTX 595 wird schneller sein als die HD6990.
 
Falbor schrieb:
als p/l-fetischist enzieht sich das meiner logik sich sowas zu kaufen...

Das ist auch keine P/L-Karte.
Wird die 6990 auch nicht.
Oder die 6970 und die 580. Das sind auch keine Preis-Leistungs-Kracher.

Es gibt nun mal Leute mit hohen Ansprüchen welche nicht nur 2000€ im Monat verdienen.

Alle andern kaufen sich Grafikkarten in der Performance- oder Midrange-Klasse.
 
Yttrium90 schrieb:
...

3 Mrd. Transistoren für den gleichen Preis ist für mich "geschenkt"

Selbst ein Highend-Highend PC für 10000€ ist noch preiswert, ich kenne Leute die zahlen das für eine Auspuffanlage von Akropovic....nur damit der Turbo ein bisschen Lärm macht
...

Daumen hoch :D
Selten so nen guten Beitrag gelsen :)
@ Topic :
Wären da nicht die kleineren Prob (und hät ich das geld :() ...
 
Was nettes für Bencher vllt, aber sicherlich nichts, was einem den entscheidenen Vorteil in einem Spiel bringt. Zu dem Zeitpunkt, bei dem ein Spiel wirklich auf diese Rechenleistung angewiesen ist um bei höchsten anforderungen flüssig zu laufen, wird es einzelne Chips geben, die das effizienter packen.
Ich finde es nicht besonders elegant 2 Topchips so stark zu beschneiden, dass sie am Ende etwas mehr bringen als ein einzelner nur um die eigene (!) Karte nochmal mit einer einzelnen Karte zu toppen. Das ist Verschwendung von Ressourcen. Hier heißt es nicht Vorsprung durch Technik, sondern viel hilft viel. Für mich die Falsche Richtung.

Ich selbst spiele auf einer (damals noch ^^) ATi-Karte und kann daher nicht über mich sprechen, aber wer wirklich brachiale, unbeschnittene Rechenleistung will fährt mit 2 mal der 580 sicherlich besser, auch wenn die Kombo dann 4 anstatt 3 PCI-Slots belegt (es sei denn Wasser (oder Stickstoff ? :freaky: ) gekühlt ).
Aber wem es nur um Benchmarkpunkte geht, der kann auch auf den 4. Slot für die TV-Karte verzichten...

Im Winter kann man dann die Heizung auslassen und im Sommer solten man Freiluftzocken für sich entdecken ...
 
Was ist denn mit den Mikrorucklern? Dachte Dual-GPU Karten sind deswegen nicht so der Renner. Der Verbrauch wird auch recht hoch sein, auf einem Prozessor hat man riesige Kühler und hier muss die Abwärme, die viel höher ist, mit viel kleineren Kühlern abtransportieren. Nicht schlecht.
 
Zurück
Oben