Spatha ROG G752
Banned
- Registriert
- Juni 2007
- Beiträge
- 5.928
Ja Ehrlich welchen Gamer Intressieren die Bausteine.
Das Einzige was zählt sind doch FPS.
Das Einzige was zählt sind doch FPS.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.
cosmicparty schrieb:@orbmuk2K: ist dir bekannt, dass ati dran arbeitet (mache glauben mit dem r770 wäre es schon so, andere meinen erst mit dem r800), dass die gpus auf EINEN speicher zugreifen können?
woher beziehst du diese informationen?cosmicparty schrieb:@cnq: an eine ultra kann nvidia denken, wenn die auf 55nm geshrinkt haben, mit der kommenden version wirds net gehen.
sorry aber bleib einfach bei den tatsachen@ nWarrior: ich denke du bist lächerlich, wer atis politik als lächerlich differmiert und gleichzeitig nvidias verarschpolitik gutheißt ist doch n bissle.....
bleib einfach sachlich oder lass das postenaber ok, du bist bestimmt noch sehr jung und mußt noch viel lernen im leben *g*
du hast es eben schwer im moment, ich versteh das ja =)
isigrim schrieb:Das mit den Grafikkarten und den Diskussionen darum ist interessant.
Wer braucht solche Karten? (4870x2 und gt 280) Doch nur High-End Spieler, die auf ihrem 30" Monitor irgendein Hochglanz-Spiel spielen wollen. Als Beispiel sei hier Crysis erwähnt........aber wer spielt denn die ganze Zeit Crysis? Für wieviele Spiele braucht man momentan die schnellsten Karten auf dem Markt(3870x2 und 9800 gx2)? Wieviel Prozent der Computernutzer (ich meine hier nicht nur Spieler) kaufen sich solche Karten?
Wieso erzeugen solche Meldungen also so einen Aufruhr? Wartet doch einfach erstmal die Benchmarks ab...so lange dauert das nicht mehr.
Auch das mit dem Stromverbrauch wird sich dabei erst noch zeigen müssen. Das Rechnen in TDP Werten ist in etwa so unsinnig, wie bei einem Auto den Spritverbrauch anhand von Vollgasfahren anzugeben. Das macht niemand.....Einen Großteil der Zeit ist so ein Rechner doch im idle. Es kommt also letztlich auf Durchschnittswerte an.
TDP -werte sind nur was für die Hersteller von Kühllösungen.
Also nochmal: Abwarten und Tee trinken. Das beruhigt die Nerven! (Außer Schwarztee)
cosmicparty schrieb:@ unyu: selbst ein shrink geht nicht immer weiter, irgendwann limitiert die atomgröße.
cosmicparty schrieb:bei weiteren shrinks müßten auch erst neue fabriken gebaut werden. amd plant eine 32nm fabrik in new york, aber der bau hat noch net mal begonnen.
davon abgesehen ist ati im die-shrink wohl besser als nvidia, also das ist nun wirklich keine sorge für ati, dass nvidia da überholt *g*
Orbmu2k schrieb:Eine DualGPU Karte schlägt Single Karte ... mhh ok nix besonderes.
1x 250W TDP vs. 2x160W TDP (320W)
1x GTX280 650$ vs. X2 ~700$ (2x350$)
+ Mikroruckler Problem
+ Teilweise Mangelnde MultiGPU Unterstützung
+ Redundanter Speicher (Kosten + Strom)
Dann wird die Karte viellleich 15% schneller sein, da kommt NV eben mit der GT200b mit höherem Tak und GDDR5 und hat auch 15% mehr und das alles bei weniger TDP und weniger Kosten und ohne bekannte MultiGPU Probleme.
Wenn ATI und NV es endlich mal schaffen würden echtes MultiGPU zu bieten würde ja keiner was sagen. Sprich Shared VRAM, Sync FPS etc ...
Orbmu2k schrieb:Hab auch nen 30" und warte schon sehnsüchtig auf die GTX 280. Die sollte hoffentlich reichen ... falls nicht kommt halt ne 2. oder 3. dazu. ;-)
Aber mal ganz ehrlich ... ich habe aktuell ne 9600GT am laufen und selbst die packt viele aktuelle Spiele noch problemlos in voller Auflösung. (z.B. TRA alles Full mit 2xAA)
michi12 schrieb:Eine Dual-Karte mit Crossfire und Multi-GPU Probleme (Microruckler) schlägt eine single-Chip Karte.
Dass ist doch nix besonderes. Die 3870x2 schlägt auch die 8800 gtx.
Und was passiert wenn Crossfire nicht unterstützt wird ?
Die 3870x2 kack ab und dass Spiel ist nicht spielbar.
Wenn dann sollte man vergleichen:
4870x2 vs. 2x GTX280 @SLI
Und dann sieht es schon wieder ganz anders aus, und ATI wird in den Boden gestampft .
Die sollten wenn dann schon Multi-CORE-GPUs rausbringen.
Aber bitte nicht diese möchtegern pseudo Crossfire verschnitte.
Und wer dass Geld hat, eine 4870x2 zu kaufen, der kauft sich lieber 2x GTX280/60 und steht damit besser
Abwarten auf die Tests, dann kann man mehr sagen
DiamondDog schrieb:seine eigene Dual GPU Karte mit einer Singel GPU von der Konkurenz zu vergleichen ist sowas von arm.
eine Woche später stellt nVidia ihre eigene Dual GPU vor und ATi kann sich wieder in die Ecke stellen. Also ich find eide ATi GPU Karten sinnlos, da man mit einer Single nVidia sinnvoller bedient ist...
Die Single GPUs von ATi mache sinn weil sie günstig sind, aber alles andere nene.. was ist aus ATi nur geworden...
schade wirklich....
Bitte nicht übel nehmen, aber wäre in deinen Fall nicht ein Update deiner Augenfunktion angebracht wenn die erst ab 300 flüssig laufen ähm sehen ;-)alt schrieb:DAS IST DOCH ALLES KÄSE !! MIR IST DAS SOWAS VON SCHNUPPE WER SCHNELLER IST.
Überlegen wir mal anders. Sind die "next" Graka Krücken ala ATI und Nvidia denn nun im Stande bei einem Spiel wie Crisis die Qualität auf High gestellt zudem eine Auflösung sagen wir mindestens 1280*1024 bei Einstellung 16 AF und 8 AA flüssig unter direct x 10 zu zocken ?
Sprich 200 oder 300 FPS !!!
Schinzie schrieb:oje,ich sollte hier nema lesen, da kriegt man ja nur noch die ***
wo haste denn die schwachsinnigen Vorstellungen her? weder die TDP kann man verdoppeln, noch den nicht bestätigten Preis.. ich verwette meinen Hintern drauf,dass die X2 günstiger sein wird,als die GTX280, außer sie wird wirklcih brachial schneller.
und wieso dann keine X2? nur weil ATI drauf steht,was..weil vor Mutli gpu scheinste ja keine sorgen zu haben,wenn du zwei bis 3 Kraftwerke rein stecken willst...
cosmicparty schrieb:@ orbmu2K: ein 2 jahre alter 30er? nun wäre mal die frage interessant, inweitweit sich der monitor überhaupt für schnelle games eignet
ich vermute mal, der limitiert dann doch
und nochwas, falls du die diskussion verflogt hast, mußt du leider feststellen, dass ati eine 4870x2 günstiger herstellen kann, als nvidia ne GTX280
also wirds kaum preisvorteile von nvidia geben *g*
Orbmu2k schrieb:Vermutlich nicht nur ATI, aber mit dem R700 wage ich zu behaupten dass es noch nicht kommt.
Orbmu2k schrieb:NVIDIA hat doch mit dem GT200 bewiesen dass die Leistung durch Erhöhung der Shaderanzahl besser skaliert als 2GPU's mit halber Shaderanzahl.
Orbmu2k schrieb:Auch wenn NVIDIA jetzt sagt dass sie auf den selben Zug aufspringen werden wie ATI heisst das nicht dass es auch die bessere Technik ist. Es heisst nur das es wirtschafftlicher ist.
Orbmu2k schrieb:Ich denke Intel ist mit Larabee gar nicht so verkehrt eingestiegen ;-)
bensen schrieb:@kehrblech
nur weil der chip niedriger taktet muss er doch nicht am limit sein
große chips gehen eben weniger weit. warum soll nvidia keine reserve einberechnet haben?
der G80 hat auch niedrig getaktet, trotzdem war ne ultra möglich
Orbmu2k schrieb:Also ich denke auch die ATI X2 kostet ihr Geld man braucht ja nicht nur 2 GPU's sondern auch den doppelten GDDR5 Speicher der noch recht teuer sein dürfte und das PCB ist dann auch viel komplexer.