News „GeForce 7900“-Karten vermehrt am Sterben?

@;o)UHum

Nur gut, daß die Hersteller die Karte fertigen und nicht ATI, also nichts mit Kosten von Platine, Speicher etc. .;)

Die 7600 GT ist nicht schlecht von Leistung und Preis, aber da gibt´s für meine Belange Besseres.

Die 7950GX2 interessiert glaube hier fast keinen. ;)
 
Zuletzt bearbeitet:
ich denk auch das man nicht pauschal sagen kann ATI oder Nvidia ist besser.
es gibt aufm markt immer noch karten aus der alten generation und sogar der vorletzten und man kann nur sagen welche karte von den spezifikationen und der leitung für ihren preis besser ist.
allerdings bewegen sich die hersteller ja in schüben vorwärts - mal ist der eine besser mal der andere.
zB die GF4Ti die hatte doch fast jeder dann kam die 9800pro als "die" karte und dann die 6800 reihe danach kann man sagen ist jez IMO die x1900 reihe das maß aller dinge!
ich gehe hier nach speed un features ...
ich hatte ne 4ti ne 9800 ne x800xl ne x1800xt un jez wieder ne x800xl :(
warum? weil beide hersteller tolle karten bauen!!!
nur eben nicht immer zur selben zeit un zum selben preis!
wenn einer sagt ich find die 7900 besser als die x1900 dann möge er sich eine kaufen ich erfreue mich an der karte die ich für besser halte und das ohne rumgetöne!

B2T:

meinem kumpel ist die evga auf der LAN dieses wochenende abgraucht ...
warum?
stromkabel im kühler verheddert :D
aber nach n bissl warten is sie zum glück reanimiert und iweder gelaufen
er hat nur tierisch panik gehabt :D
 
Ich habe schon mal geschrieben, ich habe ein Sparkle Calibre P790, das ist eine 7900GT mit 512 MB Speicher und manchmal frage ich mich ob der Rechner überhaupt noch läuft !

Der Rechner ist so leise das ich, nach längeren Standby-Pausen, schon öfter ausversehen den Power-Knopf gedrückt habe.

Nun kann von mir aus jede ATI-Karte noch so günstig sein, erst wenn Sie wieder leise sind kommen Die auch wieder ins Gehäuse. Und bei Preisen um 300 Euro möchte ich nicht die Garantie verlieren und selber einen Kühler draufbauen. Das habe ich zwar auch schon gemacht, aber gut finde ich das trotzdem nicht.
 
klar besser als OC-karten sind IMO karten die von "natur" aus leise sind!
der kühler der sparkle sieht IMO aus wie der - leise - der 7800gtx/256?!
irre ich mich oder ist das ein leiser guter nachbau?
 
@105
Wie schon geschrieben, in 2D unhörbar und in 3D kaum wahrnehmbar bei geschlossenem Gehäuse. Nach einer Spielesession schaltet die 5 Minuten später wieder auf unhörbar zurück.
 
aua das arme nivdea das macht mal den ruf kaputt und dan auch noch bein den high end karten :headshot:
 
@ManPon und Cylord23:Da habt Ihr recht.-Die 1900GT würde mich schon auch anmachen. Aber: Da sieht man gerade mal, wie toll Ihr Euch auskennt.-Mir wäre die 1900GT viel lieber als ne 1800XT! Beide 512MB -bei der GT natl. etwas niedrigerer GPU-/Speichertakt, dafür aber 36 vs. 16 Shader-Einheiten!-Gerade bei kommenden Spielen, die massiven Gebrauch von Shadern machen wird die 1800XT trotz Taktvorteil um einiges unterlegen sein.
Von wegen Fanboy, klar ist der Preis für die 1800XT geil, aber die Karte ist ein
Auslaufmodell.-Natürl. fertigt ATI die Karten nicht selbst, aber wenn die Karten in der Fertigung nun mal sehr viel aufwendiger wie z.B. die 7600er-Serie sind, aber fast im gleichen Preisrevier "wildern", dann zahlt Irgendwer drauf!-Gerade bei so einem Angebot.-Ist einfach unwirtschaftlich.-Kann mir als Kunde ja egal sein;o)

Möge der bessere Gewinnen!-(Nach Zahlen sehe ich NV z.Zt. vorne, aber wer weiss?!-Sind da auch die Umsätze von der Chipsatz-Sparte dabei?)

Ich hoffe, dass der Kampf auch so bleibt.-Trotz seiner vielen Vor- und Nachteile fur uns Kunden.-Stellt Euch mal vor, es gäbe nur ein Unternehmen!-Ich sage nur:Konkurrenz belebt das Geschäft.
 
Zuletzt bearbeitet:
Die X1900GT hat zwar 36 Shadereinheiten, bringt aber nicht viel, denn der Schwachpunkt sind die 12 Pixel-Pipelines!
X1800XT 512MB: 16 Pixel-Pipelines, 1 Shader-Einheiten pro Pipeline
X1900GT 256MB: 12 Pixel-Pipelines, 3 Shader-Einheiten pro Pipeline

Lies dir mal folgenden Test durch:
https://www.computerbase.de/2006-05/test-powercolor-radeon-x1900-gt/#abschnitt_einleitung

Nimm z.B.: Riddick, ein shaderlastiges Spiel, aber trotzdem liegt eine X1800XT vorne, auch mit 4AA + 16AF:
https://www.computerbase.de/2006-05...00-gt/16/#abschnitt_the_chronicles_of_riddick

Call of Duty 2 ist mit einer X1900GT auf 1280x1024 4xAA/16xAF nicht mehr flüssig spielbar, mit einer X1800XT aber schon (39,0/25,8).
https://www.computerbase.de/2006-05/test-powercolor-radeon-x1900-gt/11/#abschnitt_call_of_duty_2

Wer kennt sich jetzt toll aus?
Wenn du immer noch eine X1900GT einer X1800XT 512MB vorziehst, dann kann ich dir auch nicht mehr helfen.
 
Zuletzt bearbeitet:
Ich habe eine point of view 7900gtx. Hat auch dieser Hersteller gröbere Probleme mit den Karten? Ich arbeite im SLI Modus mit dem Board Asus A8N32-SLI DELUXE mit dem Bios Update für die 7900 Serie! Danke für Infos!
 
Zuletzt bearbeitet:
Vielleich mal wieder back to topic, bitte, es geht um die 7900er ;)

@reini666: da die Hersteller die Karten zentral fertigen lassen, kann man nicht sagen, ob ein Hersteller besonders stark betroffen ist. Allerdings tritt das Problem ja vorwiegend bei den ab Werk overclockten Karten auf.

Mfg
 
mmic29 schrieb:
Vielleich mal wieder back to topic, bitte, es geht um die 7900er ;)

@reini666: da die Hersteller die Karten zentral fertigen lassen, kann man nicht sagen, ob ein Hersteller besonders stark betroffen ist. Allerdings tritt das Problem ja vorwiegend bei den ab Werk overclockten Karten auf.

Mfg
Danke!

Übertakt Point of View Werksmäßig?

Danke!

mfg
reini
 
Ja, ich gebe zu, die Überschrift ist die Kuh am Schwanz am Stall am raus am ziehen...nur irgendwie ist mir gestern nichts passenderes mehr eingefallen, was nicht das Layout der Überschrift gespängt hätte :)
Und der Genitiv ist bei mir trotz des Dativs eigentlich nicht tot^^
 
Zuletzt bearbeitet:
ohh..no was ..
Kumpel hat eine Übertakte EVGA Karte...und hat Grafikfehler...
Ich sag nur..1 Gehäuselüfter...Rivatuner und selber "Leise gemacht.."
Jetzt laufts einwandfrei nachdem uns ihm 2 Lüfter gespendet habe und mal die GPU getestet habe mit DX9 Real-Time High-Dynamic Range Image-Based Lighting rthdribl http://www.daionet.gr.jp/~masa/rthdribl/
so bei 92°C kamen dann auch Bildfehler....manoman...

Jetzt so um die 75°C und alles ok...
 
ManPon schrieb:
Die X1900GT hat zwar 36 Shadereinheiten, bringt aber nicht viel, denn der Schwachpunkt sind die 12 Pixel-Pipelines!
X1800XT 512MB: 16 Pixel-Pipelines, 1 Shader-Einheiten pro Pipeline
X1900GT 256MB: 12 Pixel-Pipelines, 3 Shader-Einheiten pro Pipeline

Lies dir mal folgenden Test durch:
https://www.computerbase.de/2006-05/test-powercolor-radeon-x1900-gt/#abschnitt_einleitung

Nimm z.B.: Riddick, ein shaderlastiges Spiel, aber trotzdem liegt eine X1800XT vorne, auch mit 4AA + 16AF:
https://www.computerbase.de/2006-05...00-gt/16/#abschnitt_the_chronicles_of_riddick

Call of Duty 2 ist mit einer X1900GT auf 1280x1024 4xAA/16xAF nicht mehr flüssig spielbar, mit einer X1800XT aber schon (39,0/25,8).
https://www.computerbase.de/2006-05/test-powercolor-radeon-x1900-gt/11/#abschnitt_call_of_duty_2

Wer kennt sich jetzt toll aus?
Wenn du immer noch eine X1900GT einer X1800XT 512MB vorziehst, dann kann ich dir auch nicht mehr helfen.

Das stimmt ich Dir absolut zu. Bin von der 1900GT auch nicht so recht begeistert. Die hat zwar viele Shadereinheiten, aber da fehlt aber auch ein Viertel von Piplines und Einheiten.
 
Sterben "GeForce 7900"-Karten vermehrt?

oder reißerischer:
Massensterben der "GeForce 7900"-Karten? ;D
 
:freak: Riddick-Shaderlastig? Ich red von D3D-Shadern! CallofDuty2 ist DX9, OK.
Ich bin mir sicher, dass die 1900GT in zukünftigen Games schneller sein wird als die 1800XT!-Ansonsten wären die 3-Shader-Einheiten pro Pipeline von ATI der volle Witz!!!


Klar bringt das bei AA/AF z.Zt. mehr, wenn die Karte mehr "feste" Pipes hat.-Das wird sich aber relativieren.

Kannst Du auch noch ne andere Quelle als CB nennen? -Bei anderen Seiten hat sich in Tests (bei gleichen Taktraten) genau das Gegenteil herausgestellt!-Die 1900GT ist meist mit der 1800XT gleichauf und gewinnt
je mehr Shader ins Spiel/ die Anwendung kommen.


Siehe z.B. Shadermark oder den Fillrate-Tester bei langen, komplexen Shadern.

P.s. Ausserdem nehmen die im CB-Test ne 1900GT mit nur 256MB V-Ram! -Gerade CallofDuty2 zieht aus den 256MB mehr der 1800XT aber recht starke Vorteile!
 
Zuletzt bearbeitet:
Die 3 Shader-Einheiten pro Pipeline sind aber ein Witz.

Ati Hätte die X1900GT besser mit 16 Pixel-Pipelines und "nur" 2 Shader-Einheiten pro Pipeline ausstatten sollen.

Die 3 Shader-Einheiten pro Pipeline bringen überhaupt keinen Vorteil für diese Karte, da die 12 Pixel-Pipelines viel schwerer ins Gewicht fallen.

P.S.: Es gibt keine X1900GT mit 512MB sondern nur mit 256MB .... wieder eine Schwachstelle mehr.

"Siehe z.B. Shadermark oder den Fillrate-Tester bei langen, komplexen Shadern."
Das sind aber keine Spiele, von daher überflüssig, es kommt auf die Spielebenchmarks an.
 
Zuletzt bearbeitet:
Zurück
Oben