News Zwei GeForce GTS 250 auf einem PCB von Zotac

Ist das jetzt Thermi 2 ?

Ne Spaß beiseite. :D
Ich wusste gar nicht das sie noch so viele G92b GPUs übrig haben und sie jetzt eben versuchen zu verkaufen.
Der G92b ist ein guter Chip. Nur leider völlig veraltet und das dann noch gepaart mit der MultiGPUproblematik und natürlich noch mit viel zu wenig VRam...
 
ATI Soldat schrieb:
Viele Distributed Computing (DC) Projekte laufen inzwischen auch auf ATI Karten. Cuda im DC Bereich hat zwar einen Vorsprung, der wird aber eingeholt zumal die ATI Karten über eine brachiale Rechenkraft verfügen wenn man das mal mit den aktuellen Nvidia Karten vergleicht.

Wo denn?

Eine GTX260 (ca. 12.000 PPD) vs. 5770 (4-5.000 PPD) sind Welten !
Brachiale Rechenkraft sieht anders aus.
Sie bringt v.a. nichts, wenn die anderen Parameter nicht stimmen und da hat ATi seit Jahren keinen Blumentopfgewinnen können.


-> Topic

Eine GTX460 ist hier klar überlegen, v.a. wenn auch gespielt werden soll.
Sollte die GTS250 x2 jemals käuflich sein, würden mich die PPD und PPD/Watt doch mal interessieren.
 
@Hypocrisy

ich zitiere mal aus dem Artikel

Distributed-Computing: AMD besser als Nvidia

"So dominieren die ATI-Grafikkarten in allen vier getesteten Distributed-Computing-Anwendungen, namentlich Milkyway@home, Collatz@home, distributed.net und folding@home. Dabei ist die HD 4890 unter Collatz@home, distributed.net und folding@home gut doppelt so schnell wie die GTX 275; unter Milkyway@home gar viermal so schnell. Interessanterweise ist dann der Sprung zur HD 5850 aber gar nicht mehr so riesig, die zwischen 19 und 75 Prozent schneller rechnet als die HD 4890."

http://www.hardware-infos.com/news.php?news=3423
 
Laut der aktuellen PCGH schauts aber etwas anders aus. Zumindest bei FAH rocken die ATIs wohl so garnicht:
HD4890 - 2300 PPD - 100W
HD5770 - 2200 PPD - 70W
HD5870 - 3600 PPD - 120W

9600GT - 2900 PPD - 30W
GTS250 - 5200 PPD - 70W
GTX260 - 5800 PPD - 100W
GTX285 - 8500 PPD - 120W [das kommt mir aber etwas wenig vor]
GTX465 - 10000 PPD - 150W
GTX480 - 14000 PPD - 170W

Also ich weiss ja nicht... aber doppelt so schnell!?
 
Find das teil ganz interressant, nicht jeder muss DX11 nutzen.
Für Spiele mit DX9 sicher sehr interressant.
Wenn das Teil 100-140€ kostet wärs wirklich ne alternative zu einer GTX 460.
Da ich eine GTS 250 nutze, und mit der leistung eigentlich ganz zufrieden bin, und nur auf das Spiel : "ARCANIA" warte, das ein DX9 Spiel ist wäre die Karte eine nicht besonders schlechte wahl, wenn man von der Zukunftsicherheit mal absieht...
 
Ich sehe nur das Problem das es eine Single PCB GTS250 (die 9800 GX2 war, wie die GTX295 1. Version und die 7950GX2 noch Temperatur empfindlicheres Dual-PCB).

Nichts desto Trotz wird es diese Karte nicht sonderlich einfach haben (ähnlich wie 2006 mit der 7950GX2 war), da sie einer mitlerweile veralteten Generation angehören (damals war es die 8800 GTX 768 MB / 8800 320 MB / 8800 640 MB).


MfG

tmkoeln
 
ATI Soldat schrieb:
Viele Distributed Computing (DC) Projekte laufen inzwischen auch auf ATI Karten.

Ich kenne exakt drei, die mit beiden GPUs gerechnet werden können: folding@home, Milkyway@home (dank externer ATI-Optimierung) und RC5-72. Milkyway und Collatz wurden durch den Programmierer den ATI-Karten auf den Leib geschrieben, das darf man nicht vergessen, CUDA dagegen ist eine Art Standard-Umgebung. Fünf Projekten mit ATI Unterstützung stehen elf CUDA unterstützten gegenüber, daneben gibt es Projekte die bswp. CUDA-Workunits angeboten hatten, ausgestiegen sind (Aqua@home) oder andere, die ATI über OpenCL integrieren möchten (GPUgrid, die übrigens die PS3 Unterstützung i.GGs. zu folding@home aufgegeben haben). Die einen nutzen nur Single Precision, andere Double Precision, da ist noch viel Bewegung im Spiel.

Das Thema PPD muss historisch betrachtet werden, wie in der FAQ grundsätzlich beschrieben, die PPD-Listen der Redaktionen sind Momentaufnahmen der zum Zeitpunkt gerechneten wissenschaftlichen Fragestellungen, die sich kontinuierlich ändern, es gibt m.W. keine einzige Workunit (siehe Projektnummer), die auf beiden GPUs (ATI und Nvidia) gerechnet werden kann. Ich kenne die Threads, in denen das experimentierfreudig versucht wurde. ;) Vergleichbarkeit ? Ja, schon, wenn man neben der FLOP-Kalkulation und dem GPU-Benchmark-Referenzsystem tiefer in die Materie einsteigt, siehe Projektbeschreibungen der Workunits.

Beispiel aus dem Planet3D-Test, der dem zitierten hardware-infos Artikel zugrunde liegt:

  • "Von den ATI/AMD Karten wurde mit dem GPUv2 Gromacs Client eine P5471 Arbeitseinheit berechnet.
    Von den NVIDIA Karten wurde mit dem GPU 2 NV MT Client eine P5915 Arbeitseinheit berechnet."

Altes Beispiel aus dem englischen FAH-Forum, der "Einfluß" der Projektnummern bei identischer Hardware wird denke ich deutlich. Was wurde im o.g. P3D-Test verglichen ? Die Archiv-Angaben fehlen, nur aktuelle Projektnummern werden gelistet, eine Bewertung ist kaum möglich.
Code:
GTX 260 (192) shaders @ stock
Project -- PPD
5750 -- 4286
5754 -- 4328
5755 -- 4328
5766 -- 6777
5768 -- 6770
5770 -- 6777
5771 -- 7438
5788 -- 7157
5789 -- 6475
5790 -- 6475
5791 -- 5762
5792 -- 7157
5794 -- 6666
5906 -- 4747
5911 -- 4913
5912 -- 4951
5913 -- 5019

Theoretische Vorteile der einen oder anderen Architektur müssen nicht in Praxis nutzbar sein, den einen ist der Stromverbrauch egal, andere kaufen nur effiziente Hardware, enttäuscht wurden sicher viele Cruncher, die sich nur auf die eine oder andere Herstellerseite geschlagen haben. Mir persönlich wären hardwareunabhängige Entwicklungen lieber, OpenCL könnte so eine Entwicklung sein.

Zum Schluß: Punkte sagen nichts über den wissenschaftlichen Wert der Workunit aus, einen anderen Weg beschreitet Worldcommunitygrid, dort werden zwar BOINC-Punkte ausgegeben, intern werden diese kompliziert gemessen am Forschungsergebnis berechnet, zudem wird in den Teamlisten nicht nur Punkte sondern die eingebrachte Rechenzeit insgesamt publiziert, wer nur "langsame" Hardware besitzt, landet in dieser Liste dennoch weiter oben, eine gute Motivation für Besitzer von alter oder low end Hardware.
 
Die Hersteller wollen wohl ihre dünne Fermi-Angebotspalette etwas erweitern. Aber ob's das bringt?
 
wenn der preis stimmt dann zur cuda berechnung.
die 7950 gx2 ... jaja
von der habe ich 2 (1000€) in meiner kiste gehabt, für eine woche:D
kurze zeit später beide verkloppt und die 8800 gtx direct nach launch für schlappe 630€ gekauft .:freak:

verrückt wieviel kohle ich mal bereit war für grakas auszugeben.:freak:
 
ATI Soldat schrieb:
@Hypocrisy

ich zitiere mal aus dem Artikel

(...) folding@home gut doppelt so schnell wie die GTX 275; unter Milkyway@home gar viermal so schnell. (...)"

Die Kommentare unter dem lustigen Artikel sind dir also entgangen... Ebenso wie der direkte PPD-Vergleich der ATi & NV.
Dachte ich mir schon. :evillol:

admyncore schrieb:
Die Hersteller wollen wohl ihre dünne Fermi-Angebotspalette etwas erweitern. Aber ob's das bringt?

Es handelt sich nicht um Fermi.
 
solche Grafiklösungen sind heute zu langsam und hoch im Verbrauch inklusive Microruckler.
Währe nicht mein Fall.
 
Ich sehe auch nicht den Verwendungszweck bei Spielen,
sondern Photobearbeitung und Video, da spielt die Karte auf dem Niveau einer gtx285/hd5830/gtx460-1gb locker mit sogar mit leichten Vorteile.
 
Zurück
Oben