Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsIntel Core i9-11900T: Rocket Lake-S mit 35 Watt in Geekbench gesichtet
Man kann bereits einen 10700K@5Ghz gegen den 5800X stellen. Intel ist XMP freundlicher
also kann man problemlos 16GB DDR4-4400Mhz für 120€ nutzen und wäre sogar schneller.
Die Frage ist wie Intel den 11700K gegenüber dem 11900K (8x 4,8Ghz) beschneiden will ?
Der 10700K hat 4,7Ghz All Core Boost und mal schauen wie hoch die den 11700K takten.
Bildbearbeitung und Videobearbeitung in Sachen Mond- und Astrofotografie.
Gibt gewissen Software die nutzt dann alle 32 Threads und 32GB gut aus. Es werden entweder Videos mit 10000 frames analysiert, die nach Qualität gewertet, extrahiert und gestackt ODER ich stacke ~1-3h Aufnahmen ( je nach Objekt zwischen 10s bis 2 min pro Aufnahme ) zu einem Bild.
Bei den Mondaufnahmen kann man so richtig bequem 8 oder gar 16 Videos parallel bearbeiten und erspart sich extrem viel Zeit.
Meine Stackingsoftware für Nebel und Galaxien lastet die CPU von allein aus.
Cool, noch ein Astro Fan. 😁👍🏻
Eine richtig klasse Mondaufnahme, die Du da gestackt hast. 👏🏻
Mein Profilbild des Saturn ist auch ein Stack (alte AutoStakkert 2.8 Version), aber nur einer freihändigen 7s Handyaufnahme durch das Okular meines Teleskops.
@alle:
Was ist genau der Unterschied zwischen i9 11900K und i7 11700K, außer 100 MHz mehr und das beim i7? Was bringt mir genau der i9, wenn nicht mehr Kerne (wie zB bei der 9er und 10er Generation)?
Man kann bereits einen 10700K@5Ghz gegen den 5800X stellen. Intel ist XMP freundlicher
also kann man problemlos 16GB DDR4-4400Mhz für 120€ nutzen und wäre sogar schneller.
Dieses theoretische Spiel haben beim erscheinen von Zen3 viele gemacht "aber Intel lässt viel mehr takt und ram oc zu, und ist deswegen mit max oc schneller". War aber falsch, GN hat es mit 5600X vs 10600K und beide mit all-in OC für cpu und ram getestet. Der 5600X war trotzdem schneller.
BorstiNumberOne schrieb:
Was ist genau der Unterschied zwischen i9 11900K und i7 11700K, außer 100 MHz mehr und das beim i7? Was bringt mir genau der i9, wenn nicht wie mehr Kerne (wie zB bei der 9er und 10er Generation)?
die SC Leistung scheint sich echt sehen lassen zu können. In Games mit den 8C ggf ein Vorteil, genau wie die 8C am Ring. Ich meine dass Intel bei 10C im Ring etwas laschere Timings fahren musste.
Wobei ich hier auf Tests Warten würde. Geekbench ist nicht gerade dafür bekannt Konsistent Ergebnisse anderer Tests zu verifizieren. Klar stimmt die Richtung aber hier wäre ich noch etwas vorsichtig
Real world undso Grundsätzlich können die aber gut werden was SC angeht ja.
Was ist genau der Unterschied zwischen i9 11900K und i7 11700K, außer 100 MHz mehr und das beim i7? Was bringt mir genau der i9, wenn nicht wie mehr Kerne (wie zB bei der 9er und 10er Generation)?
Ja gute Frage einerseits. Ist vielleicht dann so wie bei AMD mit dem 3700X und 3800X, bzw dem 10850K und 10900K, dass der 11900K sich da kaum lohnen würde im vergleich zum 11700K.
Auch wenn das alles ja noch nicht bestätigte Angaben sind, hat man so erstmal nur die 300mhz mehr Boost und 200mhz mehr allcore.
Jetzt ist natürlich die Frage ob sich das bei einem K Modell überhaupt lohnen würde, wenn man den 11700K auch so hoch übertakten könnte.
Vielleicht kommt das aber auch wieder durchs binning, dass die 11700K das gar nicht schaffen würden.
Den i9 hätte sich Intel halt sparen können die große Neuerung ist die Xe (Gen 12.2) Grafik anstelle der Asbach HD630 die auf Skylake Derrivaten seit 5 Jahren verbaut wird.
Kann es sein das Intel in der 10. Generation gesehen hat das ihre alte Skylake Architektur nicht mehr allzu gute Ausbeute für 10 Kerne liefert? Zwei Indizien hätte ich anzubieten: den stepdown 10850k und RocketLake streicht 10C komplett...
Da die neue XBOX und Playstation mit 8 Kern CPUs von AMD ausgrüstet sind werden die neuen Spiele alle darauf optimiert werden. Und wer da jetzt noch behauptet das in Zukunft nur 1 Kern Permormance bei den Spielen zähl der liegt zu 1000% falsch.
Selbst die PS3 von 2006 hatte bereits sieben CPU-Kerne. Bis heute (15 Jahre später) warte ich darauf, dass Spiele auf dem PC mehr als ein oder zwei Kerne ausreizen. ;-)
Mein 5950 langweilt sich bei fast jedem Spiel zu Tode. Insofern...
Wesentlich für Intel ist der primäre Kundenkreis. Und das ist der durchschnittliche User. Dieser kann mit 4-6 Kernen bestens bedient werden. Der braucht keine 16 Kerne...
Viel Text für die Katz darum ging es gar nicht. Punkt ist das wir jetzt im Mainstream keine 8 oder mehr Kerne hätten ohne AMDs Ryzen das war die Aussage.
Und das sagt der Typ mit dem 4-Kerner. Hast ja ausgesagt der reicht ganz gut ,
im April wird der übrigens durch den 8-Kerner 5800X ersetzt , dank AMD.
Stimmt nicht ganz die hatte 7 Trads 2 voll Kerne und 4 abgespeckte Spezial Kerne deshalb war es auch so schwierig dafür zu coden. 😉
The last of us hatte grade mal 75% aus genutzt von der CPU was der höchste Wert war. 😉
Zur single core ja so lange die Entwickler siehe MS FS 2020 und Cyber Müll zu doof sind zum Programmieren naja so lange wird nix gehen.
Ja man kann games gut Parralisieren aber es ist aufwendig und die CPUs der PS4 und co basiert auf der Katzen Architektur die für Low Level Notebooks gedacht war.
So jetzt aber mal zurück zum Thema der i7 reicht völlig aus der i9 ist meiner Meinung nach total unsinnig kein mehr Wert.
Ergänzung ()
0ssi schrieb:
Intel ist XMP freundlicher
also kann man problemlos 16GB DDR4-4400Mhz
Intel hat vorallem gemerkt das man AMD Ryzen deutlich unterschätzt hat... Beim Release von Ryzen 1000 hatte man nichts. Außer einem i7 7700k mit 4C/8T der gerade 8 Wochen auf dem Markt war... Dann hat man gemerkt oh weh AMD koppelt ihren Epyc als Threadripper auf HEDT aus (damals hatte Intel noch versucht aber unser HEDT ist ein DIE) ... Intel hatte ursprünglich HEDT nur mit 10C geplant (die 18C kamen ja auch deutlich später als Threadripper konkreter wurde, das 18C DIE war nur für Xeon W geplant)
Wäre Intel mit ihren Wünschen durchgekommen wäre K als lite HEDT dauerhaft auf den HEDT Sockel gewandert, so skurril Kabylake-X in der retrospektive wirkt, das war ein Test... Wäre Ryzen nicht stärker als erwartet geworden hätten wir auch Coffee Lake-K auf 2066 bekommen, und der erwartete i3 7360x wäre eine echte CPU geworden.
im Server hat Intel nur 28C, (bzw. verlötet 56C). Epyc hat 128 PCIe Lanes und ganze 64C und mit einer weiteren erwarteten Steigerung mit Zen4 auf 96C
Ergänzung ()
Mcr-King schrieb:
Stimmt nicht ganz die hatte 7 Trads 2 voll Kerne und 4 abgespeckte Spezial Kerne deshalb war es auch so schwierig dafür zu coden. 😉
Und genauso wir das wohl auch werden wenn bigLITTLE mit AlderLake ankommt entweder die Little Kerne komplett ignorieren (wenn Windows die LITTLE Cores nicht eh Backgroundtasks zuweist oder ähnlich zur Anfangszeit von HT komplett parkt).Was das Konzept im Desktop bringen soll weiß sowieso niemand... Mobil/Tablet/2in1 keine Frage
Mcr-King schrieb:
Kann man nicht so sagen meine ddr4 3444 gehen auch nicht auf max, 3200 mit ach und krach und viel Spielerei ca 8 Stunden dafür gebraucht.
Der glaube das XMP immer und überall problemlos funktioniert hält sich gerne...
Das ist vom Stepping, von der expliziten CPU und auch noch vom Microcode der BIOS Firmware abhängig...
Ich wüsste zu gerne ob es irgendwen gibt der die 5200 Mhz Module von Crucial wirklich stabil auf XMP fahren kann... LInus kam glaub ich mit nem 10500k nur auf 4200...
Stand heute wird der 11700k so Gerade den amd R7 5800X schlagen, bei auch laut lab50 schlechterer Effizienz. Sollte Alder Lake echt schon Ende des Jahres kommen, würde ich erst Mal auf AMDs Antwort bzw Alder Lake warten. RKL ist so spannend wie Fußpilz
Und ich glaube, das man als CB Nutzer mit einem 11700k besser fährt, Weil der 11900K das Binning Problem haben wird. Sah man ja schon beim 10850K