News Zwei Radeon HD 4870 X2 von MSI gesichtet

also können wir mit dme Test um heute um 7Uhr früh rechen. (EDT ist doch -5h von unsere Zeit oder? also 12Uhr mittags -5h = 7Uhr morgens bei uns)
So lange bleibe ich definitiv nicht auf na shcönen Tag nch ;)
 
Deine Rechnung würde für eine Zeit in Asien stimmen... Die sind weiter als wir im Tag, Amerika noch nicht so weit.
 
Ich glaub teilweise darf nicht mal bekanntgegeben werden, wann ein bestimmtes NDA abläuft.

@ derfreak: Was hast du denn für ein Windows? Ich hab XP und bei mir steht da nur GMT+-x, dazugehörige Städte und natürlich Westen im Bereich der westlichen Zeitzonen.
 
Ich zitiere wörtlich aus der Liste :
(GMT -5:00) Eastern (USA, Kanada)

Da EDT die Abkürzung für Eastern Daylight Time ist hab ich natürlich das einzige mit Eastern gewählt.

EDIT:
@GPUfan
stimmt ja die meisten werden eh ins Bett gehen und den Artikel im Morgengrauen lesen.
 
Zuletzt bearbeitet:
@ derfreak: Ich könnte mir vorstellen, dass das NDA abläuft, wenn die 0-Uhr-Grenze US-Festland erreicht, d.h. der neue Tag in den USA beginnt. Ich hab in meinem XP folgendes stehen: "(GMT-05:00) Indiana (Ost)" Da wird Indiana als Beispiel genommen, obwohl laut Wiki Indiana nur teilweise die EDT bzw. EST haben soll. ^^

Jetzt hab ich die Arbeit für heute erledigt und gehe in's Bett. Gute Nacht!
 
Hallo erst mal
ich wollte mir die Grafikkarte ende des Jahres kaufen, außer wenn es für den gleichen Preis was besseres gibt. Aber ich habe nur ein 400W Netzteil. Würde das ausreichen oder wenigstens ein bisschen?
 
also ich glaube dein netzteil würde um hilfe schreien...
am besten gleich noch ne neue psu dazu
ich schätze mindestens nen 600er, naja net unbedignt mindestens ist aber besser xD
 
Was ist denn ne psu? Aber ein 600 Watt netzteil würde ausreichen?
Mein System: (War ein Komplett-PC)
Elitegroup G31T M2
Q6600
2 GB Ram
500GB Festplatte
Zurzei noch ne Nvidia Geforce 8600GS
 
psu ist das netzteil xD
ja wär besser ich glaube auch nen 525 er oda wie auch imemr würde reichen aber sicher ist sicher!
ich z.B. hab auch nen q6600 ne 9800gtx... und hab nen 750 watt netzteil xD aber eventuel wird in mein pc auch ne x2 reinkommen...
 
Eigentlich weiß doch jeder, dass man nicht nach den Tests gehen sollte, die schon wochen oder gar Monate vor dem Release rauskommen.
 
GPUfan schrieb:
ne wenn man noch mehr warten wil ldann die 5000er reihe...
die soll ja ende des jahres oder anfang nächsten kjahres raus kommen...
vllt warte ich auch noch so lange, dann habe ich mehr geld xD

Joa, der GT300 ist auch auf dem Weg...
 
Korn86 schrieb:
@WWNN looooool Fratzengeballer xD^^

Würde auch den GT200b nehmen, aber bis der kommt, ist meine vorbestellte HD4870 mit 1 GB bestimmt schon lieferbar ;)
Die Leistung der GTX260 war ja OK nur die Lautstärke im IDLE und unter Last nicht, das macht die HD4870 alles besser ;)

PS: Du bist aber nicht zufälligerweise nWarrior aus dem PCGH-Forum?

Naja, angeblich soll er im September, also nachdem er bei der NVISION 08 vorgestellt wurde, auch auf den Markt kommen. NV kann es sich nicht leisten, hinauszuzögern. Ich würde an deiner Stelle wirklich ein wenig abwarten.

PS: Nein, aber ich kenne ihn. Ist aber bei weitem net so schlimm, wie manch anderer Fanboy. :D
 
WWNN schrieb:
PS: Nein, aber ich kenne ihn. Ist aber bei weitem net so schlimm, wie manch anderer Fanboy. :D

OK das beantwortet meine Frage du bist nWarrior ;) :D

Aber Septemper dauert mir auch wieder viel zu lange und wenn man Pech hat kastriert Nvidia wieder die Karten indem nur wieder ein 256bit Speicherinterface mit niedrig taktendem GDDR3-Ram beim GT200b zum Einsatz kommt, wie es schon beim G92 war ;)

Außerdem heißt es dann noch nicht, dass die Kühlung unbedingt leiser wird ;)
 
Zuletzt bearbeitet:
WWNN schrieb:
:volllol: Nein, ich bin nicht nWarrior. :schaf:

Ich denke nicht, dass NV kastrieren würde. Aus welchem Grund denn? Um die Karte noch langsamer zu machen? Cool... :freak:

Kann mir schon vorstellen das sie wie beim G92, den Chip wieder auf Watt/Performance optimieren. Das brauchen sie auch wenn sie die GTX Reihe ins Notebook stecken wollen, der G80 war ja vor dem G92, auch viel zu "Brute Force" als das er eine Chance hatte ins Notebook zu passen, von der TDP her.



Ich hoffe das 2x GTX 260 gegen die 4870 X2 antreten darf, am besten auch noch der Prestige willen 2x GTX 280.
 
Zuletzt bearbeitet:
Ich bin echt mal langsam richtig gespannt auf die HD4870 X2 auch wenn ich sie mir nicht kaufen werde, interessiert sie mich trotzdem ;)
Vor allem der Stromverbrauch interessiert mich besonders, hoffe ja das Powerplay wirklich noch etwas bringt, natürlich auch bei der HD4870 ;)


@WWNN alias nWarrior: looooooool
 
Zuletzt bearbeitet:
Kasmopaya schrieb:
Kann mir schon vorstellen das sie wie beim G92, den Chip wieder auf Watt/Performance optimieren. Das brauchen sie auch wenn sie die GTX Reihe ins Notebook stecken wollen, der G80 war ja vor dem G92, auch viel zu "Brute Force" als das er eine Chance hatte ins Notebook zu passen, von der TDP her.



Ich hoffe das 2x GTX260 gegen die 4870 X2 antreten darf, am besten auch noch der Prestige willen 2x GTX 280.

Ich glaube nicht, dass der GT200b jemals ins Notebook landen wird. Dafür wird eher der G92b verwendet. Die TDP wäre auch mit einem GT200b noch zu hoch fürs Notebook. Jedenfalls warte ich shcon gespannt auf den GT200b und werde mir auch eine entsprechende Karte holen, wenn sie denn aufm Markt ist.

@Korn86: Wie oft noch? Ich bin net nWarrior! Man darf aber schon im PCGH Forum mitlesen und sich den einen oder anderen Kommentar merken, weil er lustig ist? :freak:
 
https://www.computerbase.de/forum/attachments/power_gtx-png.102733/

Hmm wenn ich mal so schätzen darf: GTX 260(290W)Desktop v. 88GT Desktop(245W). Wie wir wissen ist bei der 8800M GTX bzw. 9800M GT der G92M verbaut mit ca. 35Watt TDP. So, zwischen GTX 260 und 88GT ist ein Unterschied von 45Watt. Speicherinterface wieder auf 256, eine Shader weg lassen, 55nm etc... also ich kann mir durchaus vorstellen das ein kastrierter GTX ins Notebook passt mit ca. 45Watt TDP...(theoretisch)
 
Zuletzt bearbeitet:
Zurück
Oben