News GT300: 3 Mrd. Transistoren und bis zu 6 GB GDDR5?

@ Krapfen

Wenn man mit einem 750-Watt-Netzteil kein Single-GPU-System mehr betreiben kann, dann gute nacht. Ich würde mal zu 98,6813686% sagen: JA (ohne die Spezifikationen der Karte zu kennen)

Allerdings wirst du dir wohl noch einen oder zwei Stromadapter kaufen müssen, denn ich denke nicht, dass die GTX380 (?) mit 6-pin-Anschlüssen auskommt.

Aber wenn du genug Geld für ne GTX380 (?) hast, hast du bestimmt auch noch genügend Geld für ein neues Netzteil, fall es nicht reichen sollte.

MfG
 
Zuletzt bearbeitet:
Ich bin ja wirklich mal gespannt, ob man da heute Abend wirklich mal Fakten hört.
Ansonsten erwarte ich bei den NVidia Karten einen deutlich höheren Preis als bei ATI. 500 Euro dürfte wohl drin sein, zum Start sicher auchnoch mehr. Es bleibt halt auch abzuwarten ob man die hier prognostizierte Mehrleistung überhaupt sinnvoll zum zocken nutzen kann. Viele Spiele wurden in diesem Jahr für Konsolen + PC gleichzeitig entwickelt. Dieser Trend wird sicher weiter anhalten. Dadurch ist hier der limitierende Faktor immer wieder die Konsole. Da hilft dann auch keine High End Grafikkarte mehr wenn wir uns weiterhin mit unscharfen Texturen etc. rumärgern dürfen weil die Konsolen mehr nicht her geben. Aber ich bin mal gespannt ob es nahcher wirklich paar Neuigkeiten gibt. Die ganze Verantstaltung schaue ich mir sicher nicht an, aber wenns was wissenswertes gibt wirds ja hier auch sicher ne news zu geben.
 
awo,da reicht locker jedes 600watt markennetzteil, wahrscheinlich sogar 550watt. jetzt lasst mal die kriche im dorf.

@Milamber

er selbst hat sich zumindest als soetwas bezeichnet.

gruß
 
interessant auch, dass sich nvidia zu gddr5 durchgerungen hat...
Genau zur richtigen Zeit. Vorher als man mit GDDR 5 nicht im Idle Strom sparen konnte haben sie 512SI +GDDR3 verwendet, heute kann man anscheinend mit GDDR5 plötzlich Strom sparen und jetzt kann man den Speicher auch überall verbauen ohne eine Idle Stromscheuder zu bekommen. von Low-End bis High End, das Zeug wird bald überall sein...

isiert AMD,dass sie das Referenzdesign mit nur einem gb launchen..und jetzt kommt eine karte mit wahrscheinlich mehr rohleistung und schlechterem VramManagment, und dann sind 1,5gb plötzlich perfekt für 2-3 jahre,
Hast wohl noch nicht mitbekommen das die GT300 ein stark verbessertes Speichermanagement bekommen soll ergo 1,5GB Vram knapp aber ausreichend, genauso wie die GTX 260 ausreichend Vram hat. Schinzie gibs auf GT300 scheint perfekt zu werden...

Es bleibt halt auch abzuwarten ob man die hier prognostizierte Mehrleistung überhaupt sinnvoll zum zocken nutzen kann.
Guggst du neue Spiele wie Risen: http://www.pcgameshardware.de/aid,6...it-Radeon-HD-5850/Rollenspiel-Adventure/Test/
Empire: Total War wird auch genial voll aufgedreht, am besten mit 3D Vision das auch ca. 50% Leistung frisst!
 
Zuletzt bearbeitet:
Die Euphorie hier ist ja riesig :D Wobei auch ich es kaum erwarten kann. Ich gehe auch davon aus, dass der GT300 die HD 5870 schlagen wird, auch wenn die genannten Specs jetz nicht exakt so zutreffen.

Zitat von Schinzie
ati hat eine 5850 gebaut, die minimal schneller als eine GTX285 ist,aber nur die hälfte verbraucht

Wo verbraucht die bitte die Hälfte?

und jetzt kommt eine karte mit wahrscheinlich mehr rohleistung und schlechterem VramManagment

Ob es immer noch schlechter ist, weiß man nicht. Aber das Speichermanagement ist ja schleißlich eine der verbesserungen am GT300.
 
Vorher als man mit GDDR 5 nicht im Idle Strom sparen konnte
So ein Schmarrn, wo hast du das denn her?

Bei ATI Karten gabs nur das Problem, dass beim runtertakten des Speichers evtl. Bildflackern auftrat, weswegen der Speicher einfach nicht runtergetaktet wurde --> höherer Idleverbrauch.
Das liegt aber nicht am GDDR5 VRAM, sondern an der Architektur der Karte.

@krapfen
dein NT ist billiger Ramsch, also kauf dir lieber ein 550W Marken NT, dann bist du besser dran.
 
Zuletzt bearbeitet:
... wenn ich lese, was hier so alles geschrieben worden ist, kann ich Nvidia nur gratulieren - sie haben definitiv ihr Ziel erreicht! :freak:

Ohne auch nur ansatzweise zu wissen, was sie wirklich auf der Pfanne haben, wird der Spekulation hier Tür und Tor geöffnet.
Und die ersten Rückzugsgefechte haben schon begonnen.

Was für ein Hohn! Ein einzelner Knochen reicht, und euer Hirn läuft Amok ... :eek:
 
Naja, kann mir nicht vorstellen, dass ne HD 5870 damit ordentlich laufen wird. Wobei ich auch nichts falsches sagen will. Optimal wären so ~30 A, aber da frag mal lieber die Netzteil Experten :D
Mein aktuelles hat, wenn ich mich recht entsinne, 33A auf der 12 V Schiene.
 
Lars_SHG schrieb:
ja abwarten!
Aber soviel VRAM lässt mich vermuten, dass die Speicherverwaltung wieder nicht gut ist (im Vergleich zu ATI).
Aber wir werden im Dezember sehen, was da kommt. 1,5 GB VRAM oder 2 GB macht ja durchaus Sinn wenn man Karten im SLI laufen lässt. Für mehr sehe ich aber keinen Sinn.

in zukunft werden die games immer mehr vram brauchen, von daher lieber am anfang zuviel als später zuwenig vram einbauen oder?
 
Kasmopaya schrieb:
Zumindest bei der HD 4770 hätten sie es schaffen müssen.
Die 4770 war ja eigentlich nur ein Shrink mit kleineren Verbesserungen, da kann man nicht erwarten, dass die komplette Speicheranbindung/Memorycontroller usw. neu entwickelt wird.
Das haben sie sich wohl für die 5000er Serie aufgehoben.
 
@ Voyager10

Nvidia hatte mit dem GT200 schon Verluste machen müssen wegen dem Preisdruck von AMD , jetzt als ob Nvidia nichts daraus gelernt hätte setzen Sie nochmal eins drauf und ritzen sich ein noch teueren Chip zusammen an dem Sie genau wenig Gewinn daran verdienen werden.

Na viel Spass Nvidia.

Ich glaube Du bist dir nicht ganz im klaren über die Entwicklungszeiten einer GPU. Die Entwicklung des GT300 begann vor dem Release des GT200! Die Entwicklung des G80 hat -glaube ich- sechs Jahre gedauert. Wieviel glaubst Du kann ein GPU-Hersteller, ein Jahr vor Release, an der Architektur noch ändern? :rolleyes:
 
Neo_Xsendra schrieb:
@Sgt.Speirs

1. wenn du keine 150€ mehr für 50% mehr leistung ausgeben würdest dürftest du die auch die neue ATI nciht kaufen, weil die ja zu alten gen nur 50% mehr leistung für den mehrpreis bietet.

2. Wenn du dir die Karte in nem jahr kaufst und der Preis nur noch die Hälfte beträgt, hat sich das P/L verhälltniss deutlich geändert ... versuchs mal mit nachrechnen.
Zu 1.) Ich habe nirgends behauptet, eine HD5870 kaufen zu wollen :rolleyes:
Allerdings kann man Karten unterschiedlicherer Hardwareunterstützung nicht so ohne weiteres miteinander vergleichen. In DX11 wird eine HD5870mehr als 50% schneller sein als eine HD4890.

Zu 2.) Ob Nvidia die Preise bis zur Hälfte (in einem Jahr) mitgehen kann, wage ich jetzt mal zu bezweifeln. Auf jeden Fall nicht so einfach wie ATI/AMD mit der HD5000-Reihe.
 
Die werden bestimmt wieder ne ganze Ecke teurer als die ATI-Karten.
Und selbst wenn die Specs nicht stimmen wird die Karte denk ich mal auch schneller als ATI, war ja bisher praktisch immer so:D
Muss man eben schauen ob man mehr Geld ausgeben will, ich werds bestimmt tun:evillol:


mfg
 
wieso sollte man noch Geld für ein neues NT übrig haben wenn man z.B. 350 Euro für die neue Karte ausgeben hat? Mal ehrlich? Meine Alte würde mich umbringen wollen! Ob man jetzt 350 oder 500 Euro ausgibt ist schon ein Unterschied.
 
Also die Namesgebung ist sicherlich kein "Kaffeesatzlesen", denn der ursprüngliche Entwicklungsname war GT100. Denn dieser war bereits noch vor dem GT200 in der Entwicklung. Weil einmal vergebene Entwicklungsnamen i.d.R. nicht wieder geändert werden, steht bis heute die "100" auf dem Datenblatt. Der 100er sollte ursprünglich einmal der legendären GTX 88er nachfolgen. Doch dann traten Probleme in der Entwicklung auf und eine schnellere Marktlösung wurde erforderlich, die in einem verändertem aber nicht neuen Chipdesign mündetete, dem GT200.

Dass nun die "100" aus Marktsicht keine großen Sinn ergibt liegt auf der Hand, somit kann ich mir gut vorstellen, dass er unter dem Namen GTX 300 in den Handel kommt, aber eben nur als High-End Variante. Die kleineren Versionen werden wohl noch teils auf dem GT200 basieren.

Wie jetzt aus dem T ein F wurde und was die anderen Namen so alles sollen, steht auf einem anderen Blatt.
 
Zuletzt bearbeitet von einem Moderator:

Ähnliche Themen

Zurück
Oben