News Samsung bringt WLAN mit 4,6 Gbit/s Anfang 2015

davediehose schrieb:
Bei deinen Werten hier bin ich wiederum sehr skeptisch. Erstens sprichst du offensichtlich von Bruttowerten, da es z.B. bisher keine reale Implementierung gibt, die netto 900Mb/s schaffen würde.

Er sprach von Mbit und nicht von Megabyte. 900Mbit würden demnach 112,5Mb entsprechen. Was natürlich trotzdem zu hoch wäre.
Aber von einem Raum zum Nächsten erreicht man tatsächlich gut 40Mb/s was 320Mbit entspricht. Die Werte kann ich bestätigen, da ich ebenfalls denselben Asus Router als AP zu Hause nutze. Innerhalb eines Raumes ist dann sogar noch deutlich mehr drin.
 
Weyoun schrieb:
Du weißt aber schon, dass die Haut auch aus Zellen besteht? Die schlimmstmögliche Folge wäre Hautkrebs, wenn sämtliche Strahlung allein in der Haut absorbiert würde...
Zur Absorbtion: Wenn man die Strahlung absorbieren würde, würdest du Energie speichern. Die nächste Frage wäre wie und wohin man absorbieren sollte, es ist ja nicht so dass der Körper so einfach Energie speichern kann^^ (wird wohl zu Wärme werden) Alles was reingeht muss auch wieder raus vereinfacht gesagt. Die Frage ist ob genug reinkommt um etwas zu verändern.

Das Phänomen der Reflektion und wie Haut aufgebaut ist, darfst du dir selber anschauen :)
 
Child schrieb:
Davon ab: 10 Gbit Ethernet schön und gut - aber was willst damit im Consumerbereich machen? Solange du nicht gerade Anwendungen extern im Netz speichern und dann darüber ausführen möchtest bringts momentan noch nicht so richtig viel. Für NAS o.ä. limitieren ja die Festplatten.

Als die ersten Mainboards mit GBIT auf den Markt kamen war man froh wenn man 300MBIT erreichte. Also weit weg vom Maximum aber immerhin spürbar schneller.

Warum also so lange warten bis alle Komponenten an der GBIT verzweifeln und 10GBIT sofort bis zum Anschlag auslasten sobald sie endlich verfügbar werden?

Ich wäre schon über 4GBIT froh mit der Aussicht irgendwann 10GBIT zu erreichen wenn die beteiligen Rechner schneller werden.
 
Zuletzt bearbeitet:
hallo7 schrieb:
Zur Absorbtion: Wenn man die Strahlung absorbieren würde, würdest du Energie speichern. Die nächste Frage wäre wie und wohin man absorbieren sollte, es ist ja nicht so dass der Körper so einfach Energie speichern kann^^ (wird wohl zu Wärme werden) Alles was reingeht muss auch wieder raus vereinfacht gesagt. Die Frage ist ob genug reinkommt um etwas zu verändern.

Das Phänomen der Reflektion und wie Haut aufgebaut ist, darfst du dir selber anschauen :)

Absorption bedeutet stets eine Umwandlung von einer Energieform in eine andere! Selbst sogenannte "Energiespeicher" wie z.B. Akkus speichern nicht einfach Energie A, sondern wandeln Energieform A auf chemischer Ebene in Energie B um.;)

Bzgl. Haut: Die Haut absorbiert einen Teil der 60 GHz-Strahlung und erwärmt sich dabei, weil die Photonen (bei 60 GHz kann man bereits von Photonen sprechen) die Atomkerne anregen, die dann ihrerseits Energie abgeben. Meist in Form von Wärme (Infrarotstrahlung). Die Absorption kann aber auch dazu führen, dass sich der molekulare Aufbau im Zellkern ändert, Sollte dann z.B. ein Teil-Strang der DNA (also eins von den 2 mal 23 Chromosomen bzw. ein Einzel-Gen innerhalb eines Chromosoms) durch die Energiezufuhr verändert werden (z.B. auseinaderfallen) dann hat man spätestens dann ein Problem, wenn sich die betreffende Zelle das nächste mal teilt. So kann Krebs ausgelöst werden, wenn die Zelle von der Immunabwehr nicht rechtzeitig eliminiert wird.

Fest steht auf jeden Fall, dass die 60 GHz-Strahlung noch nicht hinreichend erforscht ist, um eine konkrete Risikoabschätzung geben zu können.
 
Zuletzt bearbeitet:
Katzenjoghurt schrieb:
[x] haben will

PC steht bei mir in der einen Ecke, das TV in der anderen.
Also muss ein 15m HDMI Kabel quer durch'n Raum und an
der Tür vorbei.
(SOLCHE Leute brauchen das. ;) )

Dann leg es doch einfach.

Ich hab ein 20m HDMI kabel für 30 Euro verlegt und daneben nen 20m USB aktiv-Kabel fur 25 Euro uns fertig. Funktioniert völlig fehlerfrei mit 1080p 60hz.
 
@IDukeI
Es geht weniger darum, dass es nicht funktioniert, sondern darum, dass es umständlich ist. Würde genauso wie Katzenjoghurt sofort auf Funkt umstellen, wenn es das mit ausreichend hoher Bandbreite gäbe. Aber so wird halt mit Gigabit per Kabel weiter rumgeeiert und bei jedem ummöblieren Zeit fürs neu verlegen vergeudet. Und ja, ich möbliere gerne um. Dazu ist ein großes Wohnzimmer doch da. :D
 
Kenshin_01 schrieb:
Der typische 08/15 Router "erleuchtet" dich mit ca. 100 mW. Dein (sofern nicht steinaltes) DECT-Telefon haut dir schon das 2,5-fache umhin. Und meines Wissens brutzeln Handys/Smartphones nochmals einiges mehr. Und die Sendeleistung wird soweit möglich immer noch weiter gesenkt.

Dieses ganze Geschrei über "Hilfe der Router is so schädlich für mich..." ist also wirklich nur Unfug. Mal davon abgesehen haben solche Plärrer meist auch no ihr Handy neben dem Kopfkissen liegen ^^
Falsch. Im 2,4 GHz Frequenzband ist die Sendeleistung in der Tat auf 100 mW beschränkt. Im 5 GHz Bereich sind es zT bis zu 1000 mW, also mal eben das 10-fache. So ganz stimmt dein Argument also nicht.

Unterm Strich macht es die Summe. Wireless hier, wireless da. Am besten haben die "ad-Router" dann gleich Triband und bombardieren die Umgebung mit - banal ausgedrückt - der 3-fachen Strahlenbelastung...
 
Klikidiklik schrieb:
Er sprach von Mbit und nicht von Megabyte. 900Mbit würden demnach 112,5Mb entsprechen.

Byte schreibt man als Konvention normalerweile groß, bit klein, speziell in solchen Abkürzungen.

Und so halte ich es auch. 900Mb sind 900 Megabit
 
IDukeI schrieb:
Dann leg es doch einfach.

Ich hab ein 20m HDMI kabel für 30 Euro verlegt und daneben nen 20m USB aktiv-Kabel fur 25 Euro uns fertig. Funktioniert völlig fehlerfrei mit 1080p 60hz.

Wat? 2m HDMI Kabel müssen doch mindestens 50 Euro kosten damit die 55 Zoll Real Glotze Youtube in guter Quali darstellen kann :D
 
Zurück
Oben