News Spezifikation für PCI Express 2.0 finalisiert

Zuletzt bearbeitet:
will nicht das ich in nem halben jahr wieder n neues mein kaufen muss weil die r600 nich ins mobo passt.
Also so bescheuert ist AMD/ATi nun auch wieder nicht. ;)
nVidia ist im Moment nun wirklich Konkurrenz genug für AMD/ATi, da werden die sich doch nicht selber ins Bein schießen und für alle R600s auch noch ein brandneues Mainboard verlangen...

By the way:
Wenn du bis Sommer wartest, was dann? Richtig, dann wird wieder irgendwas neues angekündigt. Der Computermarkt ist nunmal schnell. Warten bringt nur sehr selten was. Ich hab's schon so oft erlebt, dass ich auf irgendwas bestimmtes gewartet hab und als es dann da war, da wurd wieder was neues angekündigt, was ich ebenfalls haben wollt... :lol:
Irgendwann muss man einfach kaufen...
 
Zuletzt bearbeitet:
lol kauf mir auch inner woche neues Board und ich hoffe
inständig*bitttte* dass das in den 1.1er Slot passt
weil hab keine lust mir in 2jahren neues Board zu kaufen,
Upgrade frühestens 2Jahren
(Graka ausgenommen :lol:)
 
Weiterhin soll PCI Express 2.0 für stromsparendere Lösungen sorgen, da jeder Hersteller nun für die separaten Slots die Stromaufnahme selber angeben kann.

Das ist jawohl ein Witz oder. ATI und Nvidia kennen nur eine Richtung und zwar nach oben mit dem Stromverbrauch:mad: . Demnächst brauche ich kein Backofen mehr sondern lege die Ofenpizza einfach über die Grafikkarte und dann habe ich mein Abendessen:evillol: . Vielleicht lässt sich die Verlustleistung ja auch als Heizung nutzen im Winter:lol: .

Na ja PCI Express 3.0 ist wohl auch schon in Planung:rolleyes: . Ich jedenfalls werde mir solche Grafikkarten mit so hoher Verlustleistung nicht holen und hoffe das andere diese auch liegen lassen, denn solange diese Grakas gekauft werden wird sich nichts ändern.

gruß
Lumi25
 
Ich finde diese Entwicklung wirklich bedenklich.

Die Hersteller führen einfach PCI-E 2.0 ein, anstatt mal den Stromverbrauch der Karten zu senken.
Die Erhöhung der maximalen Bandbreite interessiert eh kaum einen Nutzer. War bei AGP auch so, da die Bandbreite kaum der limitierende Faktor in den meisten Systemen sein wird. - Also warum das ganze? Geldmacherei?
 
die technik shcreitet mal wieder vorran. aber diese 300W terten doch sehr hervor. würd mich echt nicht wundern wenn atis r600 ind die bereiche vorstößt - dann aber bitte ohne weitere externe stromversorgung.

so long and greetz
 
oh man lest mal den text oder nutzt einen der obigen links, da steht doch das pcie2.0 abwärtskompatibel ist

versteh auch nicht was der stromverbrauch damit zu tun hat
als ob nvidia energiesparende gpus baut wenn es pcie2.0 nciht geben wird

und die bandbreite ist schon sinvoll
man muss ja nicht immer an grakas denken
so bekommen 1x slots schon so viel bandbreite um für raidcontroler interessant zu werden und mit dem 4x slot bleiben wohl gar keine wünsche mehr offen
das es teurer ist mehr lanes zuverbauen braucht man wohl nicht extra zu erwähnen
 
Auf der offiziellen Homepage steht ein knapp 4 MB großes Dokument im pdf-Format vom 20. Dezember 2006 bereit ...

... welches für Normalsterbliche nicht zur Verfügung steht, wie es der Satz evtl. impliziert.
Um Mitglied in der PCISig zu werden, muss man meines Wissens eine ordentliche Stange Geld hinblättern. Aber die Spezifikationen sind ja eher für die Hersteller gedacht.

Nirgendwo steht beschrieben, wie sie die Bandbreite auf 5 GBit/s verdoppeln...
 
Firma sagt : --> Du brauchst es du brauchst es kaufs dir

Ich denke : --> ich brauch es ich brauch ES!!

bestimmt wieder nur so eine Marketing idee, die noch kein mensch braucht, da PCI - E erst so richitg benutzt wird , und AGP noch nicht mal vom Markt ist

mfg
S´p@tcher
 
Persönlich finde ich ja 300W gewaltig, hat der derzeitige doch nur 75W
 
Nur weil sie 300W für den Slot freigegeben haben, heißt das nicht, dass neue Grafikkarten auch soviel verbrauchen werden. Die ganzen Gerüchte um die X2000 er haben sich bislang noch nicht bestätigt, also heißt es - abwarten.
 
@Lumi25 bei mir brauche ich jetzt schon keine Heitzung im Wohnzimmer in zwei jahren wird es schon ne Sauna
 
Ist mir schon klar das aktuelle Graka kein 300W nutzen. Aber gegenüber PCie 1.1 ist der SPrung nicht unerheblich auch wenn diese Leistung in nächster Zeit vielleicht nicht gefragt sein wird, oder doch?
 
@bobSE:
Prinzipiell fallen mir drei Techniken ein:
a) statt seriell über eine Leitung, einfach über zwei. Das macht bei PCI-E nicht viel Sinn, weil es genau dem Konzept von den Lanes entsprechen würde
b) nicht nur steigende, sondern auch fallende Flanken benutzen. Auch das wird es nicht sein, da PCI-E, soweit ich weiß mit einem Takt von 1.25GHz arbeitet und damit schon die fallenden Flanken benutzt um zu der im Artikel genannten "Grundfrequenz" von 2.5GHz zu kommen
c) Takt verdoppeln. Ich tippe auf das.

@Bert_64: der Sprung ist nicht unerheblich, aber wahrscheinlich leicht zu realisieren (und gut fürs marketing). Ein paar dickere Pins und breitere Leiterbahnen oder einfach noch ein paar Pins für die Stromversorgung bereitstellen.
 
ich hab schon öfters gelesen das der takt verdoppelt wurde
@31
sicher das alleine der slot 300w liefern soll?
ich bezweifel das ein wenig
denn dafür wäre ein neuer stecker auf dem aminboard nötig, denn irgendwo muss es ja her kommen
das passt nicht zu der meldung, dass ein 8pol stecker für die graka kommen wird
 
Wie wärs mal mit USB 3.0? Firewire ist immer noch besser. Und das schon sei Jahren. Da USB aber weiter verbreitet ist könnte man da auch einmal was machen. Natürlich sollten die dann auch abwärtskompatibel zu den alten Standards sein
 
Ich habe mir auch erst vor einem Monat ein Sockel 775 Mainboard mit PCI-e Slot gekauft. Da kann man sich ja gleich aufs Aufrüsten freuen, wenn man zusätzlich zu einer neuen Grafikkarte noch Netzteil, Mainboard dazubestellen darf, denn die neuen Grafikkarten werden wohl nicht gerade sparsamer mit ihrer Energie sein..wie gut, dass ich nicht wirklich viel zocke, für alle Betroffenen natürlich keine gute Neuigkeit.
 
2.0er Karten sollen in 1.1er Slots laufen - alles andere ist doch Kappes!
 
Dem schließe ich mich mal so an. Wobei ich aber zugeben muss, dass ich mir immer einen komplett neuen Rechner hinstelle und eigentlich nie aufrüste bzw. aufgerüstet habe. Höchstens wenn mal was geschrottet wurde.
 
Zurück
Oben