Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News GeCube stellt HD 2600 X2 Gemini 3 offiziell vor
- Ersteller Andy
- Erstellt am
- Zur News: GeCube stellt HD 2600 X2 Gemini 3 offiziell vor
humanshaper
Lieutenant
- Registriert
- Nov. 2006
- Beiträge
- 583
Ich denk ehr das die Karte nicht zum Spiele gedacht ist sondern wohl ehr interessant ist für Leute die viele Bildschirme haben. Wenn man dann von der noch ne 2te hat hat glaubich an Bildschirmen ausgesorgt
palaber
Captain
- Registriert
- Juni 2006
- Beiträge
- 3.856
bisher konnte noch keine dualchip graka ihren preis rechtfertigen
FALSCH: Geforce 7950 GX2 für 180€, das war wirklich gut! Und ist momentan immer noch eine der schnellsten Grakas.
@ Topic:
Mh, ich glaub kaum, das der hohe Preis gerechtfertigt ist. Wenn die scheller wäre als ne 8800GTs mit 320MB, wär es einen alternative. Ich denk aber nicht das dies so sein wird. Naja, mal nen Test abwarten.
Mystic-Car
Cadet 4th Year
- Registriert
- Sep. 2007
- Beiträge
- 93
Rasemann schrieb:Ähhhh, GDD3 = DDR2, oder nicht?
Doch du hast vollkommen recht.
Weiß garnicht wieso sich die Leute so aufregen
Mystic-Car
S´p@tcher
Lieutenant
- Registriert
- Jan. 2007
- Beiträge
- 874
tz.........1 Kern Grafikkarten sind doch schon längst out , der neuste trennt geht zum 8-Kern-Grafikkarten system
das Ding hat keinen 1GB VRam, es sind 2x 512!! Trotz dem Find ich das voll die Verarsche, das die auf die Packung 1GB draufschreiben -.-
@19&20
nene....lasst mal, der Weg ist zu lang^^
das Ding hat keinen 1GB VRam, es sind 2x 512!! Trotz dem Find ich das voll die Verarsche, das die auf die Packung 1GB draufschreiben -.-
@19&20
nene....lasst mal, der Weg ist zu lang^^
Zuletzt bearbeitet:
MightyGrave
Lt. Commander
- Registriert
- Juli 2007
- Beiträge
- 1.985
hmm also so schlecht ist das mit den 4 dvi bildschirmen nicht, bei uns auf der firma haben unsere zwei "datenbankenfreaks" jeweils 3 monitore.
zum spielen allgemein wären die karten ja mal was. das problem ist das es einfach treiberseitig gebremst wird.
Denn wenn wir uns mal die Eckdaten anschauen, ist die karte garnicht so schlecht, und der preis von 300€ wird auch irgendwann etwas fallen
bin mal auf die test gespannt
zum spielen allgemein wären die karten ja mal was. das problem ist das es einfach treiberseitig gebremst wird.
Denn wenn wir uns mal die Eckdaten anschauen, ist die karte garnicht so schlecht, und der preis von 300€ wird auch irgendwann etwas fallen
bin mal auf die test gespannt
gehacktesmacher
Lt. Commander
- Registriert
- Dez. 2002
- Beiträge
- 1.148
Am sinnvollsten wären mal Karten die eine DualGPU auf einem DIE haben wie die jetzigen Core2Duo's oder X2's von AMD, mit jeweils 30Watt Verbrauch und einer Gesamtleistung einer 8800GTX
BrOokLyN R!ot ³
Vice Admiral
- Registriert
- Dez. 2006
- Beiträge
- 6.606
gut gemeinter ansatz von gecube. aber die umsetzung (GDDR2 und gesenkter speichertakt) ist miserabel. Und der preis erst recht. Also mit GDDR 4, höheren Taktraten (sozusagen eine OC Gemini) und nem 2x 256-Bit interface wäre die 100pro der kracher. auch zu dem preis. aber das bit interface ist nen allgemeines problem der mittleklasse. aber wa sich ums verrecken nicht verstehe ist warum die hersteller von dne chip und den grakas nicht drauf reagieren..... Alle fordern höheres Interface und besseren speicher... aber nix tut sich..
da hat er überhaupt nicht rechtMystic-Car schrieb:Doch du hast vollkommen recht.
gddr3 basiert auf ddr2, ist aber nicht das gleiche
ausserdem geht es gar nicht um die technologie, sondern um die bandbreite
und die ist viel zu klein, ob gddr2 oder gddr3
Sign_X
Lt. Junior Grade
- Registriert
- Juni 2006
- Beiträge
- 388
Wenn schon DUAL-Chip, sollte man doch wohl eher zur Gemini HD 2600 X2 DUAL-Karte von Sapphire greifen (512 oder 1024 MB Gesamt GDDR3 Speicher 800 MHz). Wobei ich auch hier wirklich nur den Vorteil mit den vier Monitoren sehe. Eine Dual-GPU-Karte kann im Optimalfall nur etwa 70% der Leistung einer Radeon HD 2900 XT bieten. Wahrscheinlich eher weniger, weil schmalere Speicheranbindung und weil zwei GPUs nicht so effizient wie ein einzelner arbeiten.
ww2warlord
Commander
- Registriert
- Juli 2006
- Beiträge
- 2.970
Ich betrachte die Dual oder Multi-GPU Technik von Grafikkarten als zukunfts orientiert. Denn schließlich bringen neuere Architekuren bessere Skalierungen mit sich. Die HD Serien skallieren schon i CrossFire teils bis zu 100% und wenn das auch bei solchen Dual Karten funktioniert, die nur darauf ausgelegt sind ist es doch ein gutes Produkt.
Nur die jetztigen Gemini Karten taugen nicht wirklich. Für richtige Spieler kann auch das zu langsam sein. Grund dafür sind Speicheranbindung und verbauter Speicher. Es hat keinen Sinn auf 128Bit mit DDR2 zu setzen, wenn man die Gamer Gemeinde ansprechen will.
256Bit, 512MB DDR3/4/5 und 55nm wären ideal. Der R600XT Chip tauft dür sowas nicht und deshalb müssen wir noch auf die RV670/R680 Karten warten, die alles besser machen sollen. Eine Karte, die ähnlich so ein Hit wird, wie die GX2 wird garantiert beliebt werden. Ansonsten wartet man auf ein Angebot von Alternate, wo es das Produkt nach 2 Jahren für 180€ zu haben ist.
Nur die jetztigen Gemini Karten taugen nicht wirklich. Für richtige Spieler kann auch das zu langsam sein. Grund dafür sind Speicheranbindung und verbauter Speicher. Es hat keinen Sinn auf 128Bit mit DDR2 zu setzen, wenn man die Gamer Gemeinde ansprechen will.
256Bit, 512MB DDR3/4/5 und 55nm wären ideal. Der R600XT Chip tauft dür sowas nicht und deshalb müssen wir noch auf die RV670/R680 Karten warten, die alles besser machen sollen. Eine Karte, die ähnlich so ein Hit wird, wie die GX2 wird garantiert beliebt werden. Ansonsten wartet man auf ein Angebot von Alternate, wo es das Produkt nach 2 Jahren für 180€ zu haben ist.
Realsmasher
Captain
- Registriert
- Juli 2005
- Beiträge
- 4.046
palaber schrieb:FALSCH: Geforce 7950 GX2 für 180€, das war wirklich gut!
180€ ? Die Karte lag neu nie unter 350€ und geht heute noch gebraucht bei ebay deutlich über 200€ weg.
das mit den 180€ zeig mir bitte mal, glaube ich nämlich kaum.
Blutschlumpf
Fleet Admiral
- Registriert
- März 2001
- Beiträge
- 20.341
Da hätte man wenigstens mal ne vernünftige Kühlung draufbauen können, sprich eine die nach außen pustet statt die 100 Watt im Gehäuse zu verteilen.
azunutz
Lt. Commander
- Registriert
- Nov. 2006
- Beiträge
- 1.155
fein, wenn die noch bessere X2 GPU´s herstellen können wäre es echt fein^^ wann bringt ati eig. neue grafikkarten raus? weil ich mir keine 8800gts kaufen wollte für crysis, aber da man ja schon eine 8800gts braucht will ich hoffen das ati neue rausbirngt damit nvidea direckt kontert und dann kann man mal sehn^^
Crazy-Chief
Lt. Junior Grade
- Registriert
- Feb. 2006
- Beiträge
- 493
Mal ne doofe Frage: Kann man damit auch ein 6x bzw 8x GPU-System bauen? Intel (3) und AMD (4) haben jetzt ja schon MB mit mehreren PCIe 16x Steckplätzen. Bauen wird man es wohl können, nur funzt es dann auch mit den Treibern, oder gibt das Hardware Probleme???
Nicht das ich vor hab mir sowas anzuschaffen, möchte es nur mal wissen, denn AMD/ATI hat ja schon "Triple.- u. Quad-CF" angekündigt.
Aber wirklich interessant wird es erst wenn wir sowas auf einem PCB bzw. in einer/m DIE finden, sprich real Dual-Core-GPU.
Nicht das ich vor hab mir sowas anzuschaffen, möchte es nur mal wissen, denn AMD/ATI hat ja schon "Triple.- u. Quad-CF" angekündigt.
Aber wirklich interessant wird es erst wenn wir sowas auf einem PCB bzw. in einer/m DIE finden, sprich real Dual-Core-GPU.
Lord Sethur
Captain
- Registriert
- Aug. 2006
- Beiträge
- 3.952
Macht mir nicht so einen "Titan'schen" Eindruck, wie der Namenspate einen geliefert hat. Vor allem auf Grund des kastrierten Speichers. Dieser verhindert wohl den raketenartigen Start.
Bemerkung: Der Name bezieht sich wohl auf das Gemini-Raumfahrt-Programm, oder habe ich da was falsches hineininterpretiert?
Einzige Anwendung: Jemand will einfach aus Spaß einmal ausprobieren, ein Multi-GPU-System zu bauen.
Bemerkung: Der Name bezieht sich wohl auf das Gemini-Raumfahrt-Programm, oder habe ich da was falsches hineininterpretiert?
Einzige Anwendung: Jemand will einfach aus Spaß einmal ausprobieren, ein Multi-GPU-System zu bauen.
C
Creshal
Gast
Nein, "Gemini" ist das lateinische Wort für "Zwillinge".Lord Sethur schrieb:Bemerkung: Der Name bezieht sich wohl auf das Gemini-Raumfahrt-Programm, oder habe ich da was falsches hineininterpretiert?
Ähnliche Themen
- Antworten
- 39
- Aufrufe
- 3.673
- Antworten
- 26
- Aufrufe
- 3.512