ATi HD5800 und nVidia GTX400 (DX11 Gerüchteküche)

Status
Für weitere Antworten geschlossen.
oder meinste die bauen extra eine fake-karte mit hdmi?
Etwa dass(aber wenigstens diesmal nicht aus Holz oder was war das?:D) oder ein Fermikrüppel. Eine marktreife Karte glaube ich bei weitem jedoch nicht.
 
so zeigt sich das Sample noch als "Geforce GTX 375".
auf jeden fall schon ein älteres engeneeringsample. das trägt noch das ursrünglich angedachte namensschema. sollte aber leistungsmäßig nicht mehr weit von der gtx480 (aka gtx380) entfernt sein. wie läuft diese demo denn auf einer 5870? wurde das mal gebencht?

aber a3-stepping ist somit auch nicht unbedingt sicher. zwar hat dieses frühe engeneeringsample a3, aber seit dem ist ja schon wieder viel zeit verstrichen, was theoretisch ein b1 möglich machen würde...
 
hätte es nicht unrsprünglich GTX360 und GTX380 heißen sollen... meinetwegen noch GTX370..aber GTX375 steht ja für eine bereits Überarbeitete Version.

Und zwischen einer GTX475 und einer GTX480 dürfte nicht so der große Unterschied sein, dass er 200€ rechtfertigt?

außer Nvidia schmeißt wieder mal das ganze Namenschema um und suggeriert mit 475 eine Leistung ,die nicht dem Namen entspricht.


gruß
 
stellt sich halt auch die frage, ob sich überhaupt eine verkaufsbezeichnung daraus herleiten lässt, oder ob es absichtlich eine cryptische bezeichnung nur für den interenen gebraucht ist, um sich nicht in die karten schaun zu lassen...

gtx375 würde ja in anlehnung an die gtx275 bedeuten, volle 512 shader aber nur das pcb der gtx360.
 
jain

zum thema raytracing: bei raytracing gilt: je mehr, desto effizienter. die kurve der beanspruchten leistung sieht etwa so aus:

200px-LogBase10.svg.png


bei der physikberechnung ist es schwierieger ... grundsetzlich gilt dort wenn man erstmal über die "grundlagen" raus ist, für etwas mehr physik, einiges mehr an rechenleistung, wobei sich das an einer (nicht absehbaren stelle) angeblich relativieren soll. kann man sich vorstellen wie der teil oben:

7723_Neilsche_Parabel.PNG


Und dann gibts da noch das mit den texturen ... wenn man die qualität einer textur linear steigert, dann steigt die benötigte leistung im quadrat (rechte seite)

Graph_xhoch3.jpg


letzteres gilt übrigens auch generell auf rastericing betrachtet, warum in naher zukunft (1-3 jahre) der schnittpunkt sein dürfte, an dem raytracing effektiver wird ...

so und nun noch zum topic:

gtx375 sagt uns: oem bekommen sie auch unter anderem namen ;) ... allerding hat nv in der letzten gen erst dem b stepping die 5er am ende gegeben ... ist ja auch fast ein halbes jahr nach dem angedachten release ... also wer weis ... mit etwas glück releasen sie gleich das b-stepping
 
Dural, ausm 3DC schreibt zur 375:

"...375 steht für die Chip Version...

ab 4xx gibt es volle GF100..."


@neo_xsendra
das mit den kurven wusste ich eigentl. (dank cb-artikel), hab ich aber nicht weiter mit einbezogen (weil nicht dran gedacht).
danke

mfg
danke nochmal dafür.
 
Minimum 600W power supply.


Da wirds bei meinen 450W allerdings nichts. Aber mal kucken was der Testrechner bei CB verbrauchen wird. Ich hoffe mal stark dass es insgesamt doch nicht mehr als 400W sein werden.
 
Sun-Berg schrieb:
Minimum 600W power supply. Da wirds bei meinen 450W allerdings nichts. Aber mal kucken was der Testrechner bei CB verbrauchen wird. Ich hoffe mal stark dass es insgesamt doch nicht mehr als 400W sein werden.

Auf dem Karton meiner GTX 275 steht Minimum 550W mit 40A auf 12V und sie läuft auf mit meinem 430W-Netzteil mit 28A auf 12V seit über einem halben Jahr einwandfrei, sogar mit OC. Selbst FurMark + Prime macht keine Probleme. Soviel dazu.

@Lübke
Bei meiner GTX 275 ist da auch ein Sternchen mit folgender Erläuterung:

"Minimum system power requirement based on a PC configured with an Intel Core i7 3,2GHz processor"

Aber selbst bei Berücksichtigung einer solchen CPU sind die Angaben in der Regel ein gutes Stück zu hoch angesetzt.
 
Zuletzt bearbeitet:
Also die PCIE-Spezifikationen lassen ja nur einen maximalen Verbrauch der Karte von 300W zu. Dazu maximal 150W im worst-case für die CPU (Phenom II 965) dann ist man bei 450W auf der 12V Schiene. Um etwas Luft zu haben sollte das Netzteil dann also 480W auf der 12V-Schiene bereitstellen können, was beispielsweise ein Enermax Pro 82+ 525W schon gewährleisten kann. Bei einer stromsparenden CPU benötigt man dann natürlich dementsprechend weniger. Und in der Praxis wird eine solche Auslastung eh nie erreicht.
 
Zuletzt bearbeitet:
Dann sind die Angaben für Billig NTs und die waren bis jetzt immer so hoch.
 
@|MELVIN|: naja ati scheints ja mit den spezifikationen auch nicht so ganz genau zu nehmen:
https://www.computerbase.de/2010-02/atis-antwort-auf-fermi-spezielle-hd-5970/
von daher könnte ich mir gleiches auch beim fermi vorstellen, zumal wohl die geplanten taktraten nicht ohne weiteres realisierbar sein sollen. höhere volt erlauben höheren takt aber erhöhen auch expondentiell den verbrauch...
 
Naja aber da sind ja auch zwei 8Pin und ein 6Pin an der Karte angebracht, was eine theoretische maximale Leistungsaufnahme der Karte von 450W ermöglicht. Bei einem 8Pin und einem 6Pin wie beim Fermi vorgesehen sind maximal 300W möglich.
 
Nö ATI hält sich nach wie vor an die Spezifaktionen. Nur die Boardpartner nicht, was ATI aber diesmal scheinbar nicht zu verhindern versucht.
 
ati empfiehlt für die 5870 z.b. das "Be Quiet Straight power BQT E7-500W (500W)"

dazu dann nochmal:
http://www.xbitlabs.com/misc/pictur...eon-hd5870/diagrams/hd5870_power_full.png&1=1

unter Furmark braucht eine 5870 -> 161 Watt

aber im großen und ganzen kann man daraus fast nix ableiten., wie airbag auch schon schreibt, will man versuchen auch bei billigen netzteilen auf der sicheren seite sein.

es gibt auch empfehlungen zur 280gtx, die bei 600watt liegen.

mfg
 
Zuletzt bearbeitet:
@|MELVIN|: 8 pin + 6 pin sind ja nie von nvidia angegeben worden und nur auf samples wie diese "375" zu sehen, bei der man aber nicht weis, ob es sich um eine gtx470, gtx480 oder was ganz anderes handelt...

aber da nvidia ja scheinbar mit seinen anforderungen an das nt mehr als vorsichtig zu sein scheint, sind meine bedenken auch erstmal wieder zerstreut :)
 
Status
Für weitere Antworten geschlossen.
Zurück
Oben