News Der Nachfolger von PCI Express soll funken

aufjedenfall so gut das man es glaubt, wen das Gehirn durch ne Erkältung und Kopfschmerzen nicht wirklich arbeiten kann
ich habs erst nach 4 Kommentaren gerafft :watt::volllol:
 
Der Codename eines Grafikkartenchips
 
Hmmm... ich dachte das ist echt, denn in der Industrieelektronik kommunizieren die Steckmodule schon seit Jahren per W-Lan miteinander und nicht über den Bus.
Spart enorm viel Kabel und macht die Anlagengestaltung viel flexibler.
 
Suxxess schrieb:
Ich verstehe dich, hätte ich eine 780er und müsste so eine Meldung lesen...dann würde ich auch kotzen. :D
Das hätte so eine tolle Diskussionsschlacht werden können. Gerade weil Nvidia nun mal angekündigt hat auf Optimierungen unter DirektX zu setzen.

Es gibt 1000 Gründe warum AMD das umsetzen sollte, die Argumentationsmöglichkeiten dies plausibel zu machen wären fast grenzenlos.
Die GTX780 habe ich mir vor 2 Tagen ganz absichtlich gekauft, weil mir AMD nur noch auf den Keks geht. Ich kann nur einfach nicht lachen, weil dein Aprilscherz nicht lustig.
Da fand ich die Idee von Computerbase wesentlich geistreicher.
 
Ich will ja nichts sagen, aber so ganz erfunden ist die Sache ja nicht, zumindest meine ich das es tatsächlich mal Gerüchte in diese Richtung gab und das war nicht letztes Jahr am ersten April.
 
Rubikalubi schrieb:
Was ist denn Pascal? Doch sicher nicht die Programmiersprache, oder?

Der Codenamen des Chips.
Die kommende Generation hört auf den Namen Maxwell.
So wie Hawaii bei AMD.
 
Also beim überfliegen innerhalb von 5-10sek bin ich fast drauf reingefallen aber die 500 Antennen auf der Grafikkarte machten mich dann doch stutzig.
Achja: Herzlichen Glückwunsch, ihr seid die einzige Website heute die mich fast gekriegt hätte und mal nicht was völlig offensichtliches rausgehauen hat. :D
 
die grafikkarte mit den antennen gibt es aber wirklich
 
Für einen wahren Artikel ist der Inhalt auch nicht schlüssig.
Während das Bild der Graka eine Funkverbindung des Bildsignales zum Monitor offerriert,
geht es doch im Text um den Datenbus zwischen Graka und Mainboard...
 
das war alles nix gegen den Scherz von ifixit. COOP mit Apple!

und nochn Gedicht:

emeraldmine schrieb:
und ich will LWL *duckundrenn*


und bezüglich interner Datenübertragung per Funk: robotron hatte wohl sogar noch vor der Wende eine optische Schnittstelle entwickelt, welche alle großen Bauteile innerhalb eines "Gerätes" per Lichtsignale datentechnisch verband. da mußten nur die paar Drähte für die Stromversorgung der Baugruppen verlegt werden.

die komplette Kommunikation innerhalb des "geschlossenen" Gehäuses lief mit Lichtgeschwindigkeit über Infrarot. das stellt zwar ein shared Medium mit dem Datendurchsatz einer Fernbedienung dar, aber für den Anfang in einer Schreibmaschine war es revolutionär. Leider wohl zu futuristisch, da es nie wirklich in Serie ging. Aber es zeigt möglichen Alternativen einen weiteren Weg auf.
 
MahatmaPech schrieb:
und bezüglich interner Datenübertragung per Funk: robotron hatte wohl sogar noch vor der Wende eine optische Schnittstelle entwickelt, welche alle großen Bauteile innerhalb eines "Gerätes" per Lichtsignale datentechnisch verband. da mußten nur die paar Drähte für die Stromversorgung der Baugruppen verlegt werden.

Ich meinen Augen ist das die Zukunft! CPUs die ihre Daten per Lichwellen weiterleiten werden ja schon seit Jahren erforscht. Schätze mal nur, daß wird sich noch hinziehen. Schnellere CPUs werden in diesen Tagen grad nicht wirklich gebraucht.

Die Grafikkarte mit der Funkübertragung find ich sehr gut! Ich hab meinen PC im Wohnzimmer zu stehen und würde diesen schon sehr gerne in die gegenüberliegende Ecke vom Fernseher stellen. Damit würden einige Geräte aus dem Blickfeld verschwinden und vor allem auch der Kubelwust wäre nicht mehr zu sehen.

Ein HDMI Kabel möchte ich aber nicht verlegen, da hab ich dann ja wieder ein Kabel was stört.Die Systeme welche es dafür zu kaufen gibt sind unzuverlässig und teuer. WHDI bzw. Miracast wäre vielleicht eine Lösung, aber soweit ich weiß hat Intel die Technik nicht in Ihre Desktop CPUs integriert und die Netzkartenhersteller unterstützen das so wohl auch nicht!?

Was meint ihr, könnte man evtl. das Bild seines PCs mit solch einer Lösung auf den Fernseher übertragen?

http://www.amazon.de/gp/product/B00DUUG8BM/ref=noref?ie=UTF8&psc=1&s=ce-de
 
Dario schrieb:
Schnellere CPUs werden in diesen Tagen grad nicht wirklich gebraucht.

Zumindest für den normalen User. In Servern kann man nie genug Leistung haben auf möglischt wenig Platz ;)

Aber ja es stimmt schon aktuelle HW ist der SW um gut 2-3 "Generationen", sprich ca. 5-6 Jahre vorraus
 
Naja in Zeiten des Cloud Computing kann man in Servern nicht genug Leistung pro Watt haben. Strom und Kühlung etc. kostet ja auch alles Geld! Was da eine einzelne CPU leistet, ist erstmal gar nicht ausschlaggebend. DAS ist es woran Intel arbeitet. Ich behaupte mal, die könnten ihre Chips locker auf 4-6 Ghz takten. Der Stromverbrauch und die Hitze welche dabei anfallen würden, wären wohl aber nicht mehr tragbar.

Nicht umsonst sprießen ARM Serverfarmen grad aus dem Boden. ;)
 
Zuletzt bearbeitet:
Dario schrieb:
Naja in Zeiten des Cloud Computing kann man in Servern nicht genug Leistung pro Watt haben. Strom und Kühlung etc. kostet ja auch alles Geld! Was da eine einzelne CPU leistet, ist erstmal gar nicht ausschlaggebend.

Eben deswegen gibt es ja die Xeon Monster mit 130 Watt TDP und davon bis zu 4 Stück auf dem Board :) Ich sage mal fast alle Server Anwendungen lieben Threads je mehr desto besser. Aber so stark wird da nicht drauf geschaut. Wird die Leistung benötigt wird CPU X gekauft und angeboten.

Dario schrieb:
DAS ist es woran Intel arbeitet. Ich behaupte mal, die könnten ihre Chips locker auf 4-6 Ghz takten. Der Stromverbrauch und die Hitze welche dabei anfallen würden, wären wohl aber nicht mehr tragbar.

4 GHz: Ja, machbar vor allem mit Klima im Serverraum aber alles drüber würde man min. eine WaKü brauchen und ja, es gibt diese im Serverbereich vor allem IBM is da ganz groß dabei aber das sind evtl. 1% aller Server vor allem gibt es einfach kein Standard.

Dario schrieb:
Nicht umsonst sprießen ARM Serverfarmen grad aus dem Boden. ;)

Halte ich für "eine Phase". Echte Server Dienste/Programme lieben Threads + GHz da kommt ARM einfach nicht dran. Es macht halt ein Unterschied ob ich 2 Stunden lang 130 Watt brauch oder 4 Stunden 70 Watt.
 
Zurück
Oben