Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
News6G: 1 Tbit/s für die Hologramm-Projektion im Jahr 2028
Gegen den SDN Teil will ich doch garnichts sagen - Das ist für die Betreiber Super.
Korrigier mich bitte falls ich das falsch verstanden habe, aber bei 256-QAM gibt es mit den aktuell hier verfügbaren Frequenzen garnicht mal so viel mehr user pro Zelle und auch keine höhere Bandbreite. Soweit ich das vetstehe, benötigt es hier mmwave
Finde ich interessant.
Eigentlich könnten wir uns den 5G Kram jetzt sparen und die Infrastruktur für 6G (Antennen der Umsetzer, Standort etc) Stück für Stück vorbereiten.
Später dann, 2025 bis 2030, könnten wir sauber 6G in Betrieb nehmen und die fertiggestellen "Modems" für 6G in den Umsetzern verbauen.
Das würde die Umweltverschmutzung durch bereits jetzt angezählte 5G-Technik ersparen, die in max. 5Jahren milliardenfach auf Afrikas Recycle-Müllbergen landen wird.
Infrastruktur sollte einfach eine Weile halten.
Lange lebe UKW Radio! 👍
Ergänzung ()
Hayda Ministral schrieb:
Das Marketing war anderer Meinung und - Intels A20 Gate läßt grüßen - der Wunsch die alten Zöpfe abzuschneiden und das was vor 20 Jahren mal definiert wurde mit den nun aktuellen Frameworks und Erfahrungen komplett zu überarbeiten war auch nicht ganz unerheblich
Immer der Wirbel um die alten Zöpfe - So funktioniert Kompatibelität eben.
Genau das machte den IBM PC auch so zukunftssicher.
Als Entwickler konnte man sich darauf verlassen, daß die harte Arbeit nicht umsonst war.
Ausserdem wird A20 überbewertet. Es gab zig Versionen von A20.
Per Keyboard Controller, Chipsatz, PS/2 Interface und direkt in der CPU.
Himem.sys und DOS war es egal, welche Version vorhanden war (Himem kannte 20 Varianten).
Solange zumindest das PC BIOS einen Weg kannte, war alles gut.
Und selbst wenn das A20 dauerhaft offen war,
wie in Virtual PC 200x, liefen DOS und viele Anwendungen fröhlich weiter..
Im Grunde war nur das DPMI bzw. Protected-Mode Gerümpel auf A20 verbissen.
Normale Programme - auch die, die den Wrap-around erwarteten - liefen per DOS 5/6 mit offener A20.
IMHO, die ganze A20 Sache ist schon ein wenig Propaganda.
Vielleicht um gegen die Altlasten Stimmung zu machen bzw. weil die aktuellen
CPU-Entwickler nicht mehr über das x86-Know How ihrer Vorgänger verfügen ?
Ryzen bekommt ja auch kein VME mehr hin.
Edit: Nur um nochmal etwas nachzutreten.. 😁
EMM386 und Freunde konnten dank V86 und 386er MMU die A20 emulieren.
Was mit der echten A20 war, war völlig egal.
Die meisten DOS Anwendungen haben garnicht gerafft, dass sie in ein V86 Session liefen..
Edit: Was ich schrieb war nicht als Kritik an User Hayda Ministral gedacht,
sondern war die an vielen Stellen (im Web) in letzter Zeit auftretenden A20 Gate Vergleiche gerichtet.
Das stimmt schon, aber was genau gedenkt man mit der Technologie zu nutzen, dass diese auch tatsächlich erfordert? Für das Handy is optische Kommunikation zu unpraktisch. Selbst bei 5G wurde für bewegte Objekte abartige Forschung betrieben. Stationäre Geräte bindet man idR einfach per Kabel an (billig, schnell, zuverlässig)... Semi-stationäre Geräte wie Laptops wären noch am ehesten ein Ziel... aber Laptops haben idR nichtmal 4G oder gar 5G sofern man nicht selbst ein Modul nachrüstet. Und um einen 6G Standard zu erfüllen müsste man mehr als nur das optische Modul verbaut haben (das logischerweise am oberen Ende des Displays Sender/Empfänger haben müsste, also standardmäßig Teil des Gerätes sein muss), sondern auch ein Funkmodul dass die 6G Funkfrequenzen unterstützt. Das kostet ein kleines Vermögen... LTE WWAN Karten kosten, also >300Mbit/s um halbwegs am Zahn der Zeit zu sein (das bringt uns zur mangelnden Unterstützung der Netzbetreiber, die unterstützen nichtmal LTE vernünftig) gut dreistellig.
Ich seh das schlicht kein vernüftiges Einsatzszenario für einen WWAN Optikstandard. Dass im Artikel Hologramme als Einssatzszenario dahergeblökt werden ist eigentlich Beweis genug, dass man selbst nicht weiß wozu das gut sein soll.
Und solange man in DE/AT nichtmal flächendeckt 100Mbit/s symmetrisch liefert is auch so ein Standard praktisch nutzlos da keine Anwendungen...
Nix. Die Industrie sucht immer lustige Use Cases um die Notwendigkeit eines Fortschritts zu rechtfertigen. Ich glaube nicht dass ich 2028 mit nem Hologramm Galaxy S25 rumrenne. Zum Surfen und Videoschauen reicht auch 4G. Aber sollen sie ihr Spielzeug von mir aus weiterentwickeln. Fortschritt ist besser als Stillstand.
8K TVs sind ein ähliches Beispiel. Egal, dass das menschliche Auge die Winkelauflösung bei den TV Größen und Betrachtungsabständen nicht wahrnemen kann. Trotzdem wird 8K und 10K weitergepusht als ob das jemand wirklich braucht. Selbstbeschäftigung damit sich die Forscher nich langweilen
Jau und das fördert die Produktion von Elektroschrott und die Verschwendung von Ressourcen... und mit der Vergabe von Funklizenzen etc....fördert unsere Regierung/System auch noch den Mist, der imho ziemlich unnötig ist! Überall gibt es Wlan und Lan Anschlüsse... aber keiner braucht doch auf seinem mobilen Gerät 0,2-1Gbit Internet..das haben wir nicht mal aus der Dose.
fix40phil. Hier geht es nicht um 1 Gbit. Das war Schnee von gestern. Mit 6G wollen sie 1Tbit (1000 Gbit) realisieren. Dafür sind sie bereit auf 3THz zu funken und Funkmasten in jedem Klo zu installieren. Brauchen ja Sichtverbindung. Mit Hologramm-Kitties auf Holotube macht sich das Geschäft viel entspannter.
Ich kann an MIMO, elektronischer Strahllenkung, Reflexion und anderem was da erforscht wurde nichts ungewöhnliches finden. Was genau war denn Deiner Meinung nach "abartig"?
Stationäre Geräte bindet man idR einfach per Kabel an (billig, schnell, zuverlässig)...
Man bindet sie per Kabel an weil es vorteilhaft ist. Die Vorteile verschieben sich schon seit 30 Jahren stetig in richtung der kabellosen Anbindung. Das ist nicht meine Welt, aber "viele" haben schon heute PC und Fernseher per WLAN statt Ethernet verbunden.
... aber Laptops haben idR nichtmal 4G oder gar 5G sofern man nicht selbst ein Modul nachrüstet.
Erinnerst Du Dich noch an "die Zeit vor Intels Centrino"? Da hatten Laptops in idR nichtmal WLAN. Das hat sich innerhalb kürzester Zeit radikal geändert. Es deutet einiges darauf hin, das sich eine ähnliche Entwicklung mit 4G/5G wiederholen könnte. (Intel war dabei nur einprägsam im Marketing, die Entwicklung brauchte und braucht kein Intel)
Und um einen 6G Standard zu erfüllen müsste man mehr als nur das optische Modul verbaut haben
Du wiederholst den gleichen Fehler den andere auch schon bei 5G machen. Eine Einbeziehung von Frequenzen im Bereich x Gigaherz in die Grundplanung bedeutet nicht dass nur diese Frequenzen genutzt werden können. Auch mit 600..800...2000 MHz kann das immer noch 6G sein.
Naja die Technik entwickelt sich und was heute da steht im Artikel, wird dann auch nicht mehr stimmen wenn wir soweit sind. Wie hier wieder alle schwarz sehen XD
Gibt es hier eigentlich auch 5G Gegner? Würde mich fragen was die davon halten Obs wohl noch schlimmer ist wie 5G oder vielleicht eher wie 4G?
Oder meiden die ein Technikforum?
mkossmann schrieb:
Fünfzigfache Peak-Datenrate bei nur doppelter Energieeffizienz . Wie groß müssen da dann die Akkus der Phones werden ?
LTE Advanced macht auch 30bps/Hz bei 8x8...
Mehr spectral efficiency geht mit mMIMO aber die Frage is ob das kommt, weil whs sauteuer...
Hayda Ministral schrieb:
Du wiederholst den gleichen Fehler den andere auch schon bei 5G machen. Eine Einbeziehung von Frequenzen im Bereich x Gigaherz in die Grundplanung bedeutet nicht dass nur diese Frequenzen genutzt werden können. Auch mit 600..800...2000 MHz kann das immer noch 6G sein.
Ich meinte, dass man nicht nur einen optischen Transceiver in einen Laptop einbauen wird können und dann einen 6G Sticker draufklatschen. Optisch alleine reicht nicht um einen 6G Standard zu erfüllen. Irgendwelche Funkfrequenzen im 700-3,5Ghz Bereich wird man auch unterstützen müssen -selbst wenn es der Standard nicht verlangen würde, der Kunde würde es erwarten. Heißt im konkreten teures 6G Funkmodul. Und, nein, die Dinger werden höchstwahrscheinlich nicht billiger und auch nicht wie WLAN damals bei Centrino in den Chipsatz wandern. Das liegt vA an Test und Zertifizierung der Geräte. Mobilfunk is ungemein teurer als WLAN...
Anyway, die Diskussion is recht irrelevant... Es is ja noch nichtmal 5g wirklich im Markt angekommen...
auch sind langsam Mikrowellen im teraherzbereich zugange. Das ist auch eher nix was ich haben möchte. Damit kocht man essen man trifft die Molekülschwingungen von Wasser. Schwierig für ein Lebewesen was zum Großteil daraus besteht.
Fast alle heutigen Mikrowellenofen arbeiten mit 2,455GHz, da die Frequenz frei verfügbar ist. Sprich du hast jetzt schon diverse Mikrowellenöffen in deinem Haus stehen (WLAN, Bluetooth,...), welche dich besteahlen. Nur halt mit viel weniger Leistung...
Richtig. Aber mit diesen geringen Leistungen und Wellenlängen kann man eben kein Tbit sicher übertragen. Und dann bin ich halt gespannt wie sie das lösen wollen.
Ok, wenn man also aus den Erfahrungswerten der vollmundigen Ankündigungen 2G-5G ableitet, dann wird 6G fast das liefern, was ursprünglich mal 5G leisten sollte
Nochmal: Optisch wird mit großer Sicherheit keine Voraussetzung sein.
Irgendwelche Funkfrequenzen im 700-3,5Ghz Bereich wird man auch unterstützen müssen -selbst wenn es der Standard nicht verlangen würde, der Kunde würde es erwarten. Heißt im konkreten teures 6G Funkmodul.