Bericht Intel Comet Lake-S: Core i9-10900 kommt mit zehn Kernen ab $422 im Mai

Wieso wird das eigentlich nie so richtig kritisiert, dass Intel schon wieder einen neuen Sockel und keine Kompatibilität zum alten Sockel zur Verfügung stellt? Ich betrachte das seit jahren als unverschämte Dreistigkeit.
 
  • Gefällt mir
Reaktionen: Rockstar85
@JeverPils Ganz einfach. Es wurde immer wieder und wieder und wieder bemängelt, bis man resigniert hat. :lol:
Ganz schön pfiffig von Intel.:hammer_alt: Und die MB Hersteller haben natürlich auch nichts dagegegen.

Die Langzeitkompatibiltät von Ryzen ist allerdings auch herausragend. Ich kann mich auf die Schnelle nicht erinnern, ob es das jemals gegeben hat.
 
  • Gefällt mir
Reaktionen: Rockstar85 und JeverPils
xexex schrieb:
Die Implementierung dessen in bezahlbarer Hardware? Etwa nicht?
Raytracing funktionierte schon auf dem Amiga und der war sicherlich bezahlbar. Echtzeitraytracing ist sicher eine andere Hausnummer, allerdings wird ja auch heute nicht alles in Raytracing berechnet, sondern nur einzelne Effekte und das auch nur teilweise, die Lücken füllt die KI. Aber sicherlich war RTX ein innovatives Featurebündel, das dank Nvidias Marktmacht auch in Software umgesetzt wird. AMD hat auch immer wieder mal versucht, neue Features einzubringen, konnte sich aber nicht damit durchsetzen.
 
@KuestenNebel

Intel hatte 2007 RT in der Pipeline. Und du glaubst RT ist von Nvidia? Nvidia ist genauso Technologie Bremse, wie Intel bei CPU
 
Wo soll er das denn gesagt haben? Denkst du wirklich er glaubt Nvidia habe "Raytracing" erfunden? :lol:
Zwischen "in der Pipeline haben " und "massentauglich umsetzen" und dem ganzen auch einen Standard zusammen mit Microsoft angedeihen zu lassen, ist schon ein Unterschied.
 
  • Gefällt mir
Reaktionen: adAstra und xexex
Rockstar85 schrieb:
Intel hatte 2007 RT in der Pipeline

Intel hatte RT auch bereits demonstriert und Intel hatte Larrabee in diese Richtung entwickelt. Es sollte eben die Stärke sein mit flexiblen Kernen solche Berechnungen durchführen zu können.

Allerdings ging es dabei um "Full Szene" Raytracing und nicht um hybrides Raytracing.

Hybrides Raytracing mit der passenden API wurde dann letztlich vor zwei Jahren mit DXR und RTX präsentiert.

EDIT:
Die Ansprüche von Intel in diesem wachsenden Markt mitmischen zu wollen, kommen ja nicht erst seit heute. Der Ansatz die Szenen in der "Cloud" berechnen zu lassen, sind auch heute noch zukunftsweisend und die Entwicklung passender Grafiklösungen setzt die Entwicklung von damals letztlich fort.

EDIT2:
Hier der Gastartikel auf CB. Der Daniel Pohl arbeitet bis heute bei Intel und dürfte bestimmt auch bei den kommenden Lösungen irgendwo die Finger im Spiel haben.
https://www.computerbase.de/artikel/grafikkarten/bericht-ray-tracing-5-0.1712/
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra und KlaraElfer
JeverPils schrieb:
Wieso wird das eigentlich nie so richtig kritisiert, dass Intel schon wieder einen neuen Sockel und keine Kompatibilität zum alten Sockel zur Verfügung stellt?
Das ist ausgleichende Gerechtigkeit:
  • AMD bringt eine neue CPU auf dem alten Sockel.
  • Intel bringt die alte CPU auf einem neuen Sockel.
 
  • Gefällt mir
Reaktionen: Grimey, JeverPils, Lillymouche und 4 andere
xexex schrieb:
Die Implementierung dessen in bezahlbarer Hardware? Etwa nicht?
Das wären die grünen RT-Kerne, die er Nvidia, anders als das Raytracing, richtigerweise nicht abspricht.
 
Taxxor schrieb:
Bedeutet solange ein Produkt nur 1% schneller ist als sein Vorgänger, [...] es wäre keine Preiserhöhung, da du ja nicht mehr Geld für die gleiche Leistung bzw das gleiche Produkt bezahlst und der Preis des neuen Produkts Verhandlungssache ist?

In meinen Augen - ja. Es hat dann ein schlechteres P/L Verhältnis. Du darfst das aber natürlich jederzeit anders sehen.

darf es 50% mehr kosten

Das sowieso, da es keinen Zwang und keine Monopolstellung gibt.
man kapitalismus
 
KlaraElfer schrieb:
Wo soll er das denn gesagt haben? Denkst du wirklich er glaubt Nvidia habe "Raytracing" erfunden?
Ob er das denkt, lässt sich nicht zweifelsfrei feststellen. Zumindest hat er das aber zweifelsfrei gesagt, wenn auch vielleicht irrtümlich / versehentlich.
Alle wesentlichen Innovationen der letzten Jahre (Raytracing und RT-Kerne, DLSS, Tensorkerne, ...) kommen aus dem grünen Hause
Da ist kein Spielraum fürs herausreden / relativieren.
 
  • Gefällt mir
Reaktionen: Rockstar85 und Hayda Ministral
@Ben81 Was zur Hölle? Natürlich geht es mir um die Hardware-Implementierung - weshalb ich auch "Raytracing und RT-Kerne" schrieb. Das Verfahren musste gar nicht erfunden werden, es findet seit Milliarden Jahren im Universum statt. Lediglich die Formulierung und sinnvolle Näherungen. Bei einigen Nutzern hier sehe ich beim Lesen und Interpretieren schon bösen Vorsatz. Aber ich bin ja hier bereits als Nvidia-Fanboy gebrandmarkt, da kann man meine Inhalte getrost ignorieren :D
 
  • Gefällt mir
Reaktionen: xexex und KlaraElfer
@KuestenNebel
War eine allgemeine info kein stress. Ich habe doch selber eine GPU aus dem Hause Nvidia, und eine Intel CPU! :daumen:
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: adAstra
Tunarak schrieb:
Wieviel Kerne nutzt dein genanntes Spiel tatsächlich? Wenns nur 4 Kerne nutzt bringt dir eine neue CPU absolut null weil die anderen Kerne garnicht beansprucht werden. Wenn du schon 5,2 GHz hast was glaubst du was dich bei der neuen Intel. Plattform. Mit 100MHz mehr im besten Fall erwartet?

Wieviel fps hast du denn aktuell das 5-8 fps für dich einen gesamten Plattform Wechsel rechtfertigen? Bewegst du dich da unter 60fps aktuell?

ja dank dx 9 sind es unter 60 in open field pvp fights mit 60v60v60. Da helfen auch 100mhz mehr
 
Hajesses :D.
Ich muss wohl wirklich auf Zen3 warten. Was mich neben den neuen CPUs von Intel eig noch nervt , ist das ich immer einen neuen Sockel brauch. Das ist doch Geldmache, wieso bekommt es AMD hin mit einem Sockel mehrere CPU Generationen zu versorgen?
 
Warum es den neuen Sockel gibt, dazu habe ich weiter vorne schonmal was geschrieben:
https://www.computerbase.de/forum/t...hn-kernen-ab-422-im-mai.1942103/post-24066121

Der neue Sockel hat hauptsächlich mehr Anschluss-Pinne, um (Vermutung) vier weitere PCIe Lanes zur Verfügung stellen zu können (z.B. für eine PCIe SSD).
Allerdings kann Comet Lake damit noch nichts anfangen, sind aktuell also nur Platzhalter.

AMDs AM4 Sockel, mit immerhin 1331 Kontakten (also mehr als 1151 oder 1200 bei Intel) war von Anfang an darauf ausgelegt.
Die 49 Pinne mehr des Sockels 1200 gegenüber dem Vorgänger 1151 sind ausreichend für vier zusätzliche Lanes und vielleicht noch ein paar für eine bessere Stromversorgung der CPU.

Je PCIe Lanes benötigt man etwa 6-8 Pinne (je nach dem wie viele Masse-Anschlüsse verwendet werden).
 
Zuletzt bearbeitet:
Eigentlich find ich den Ryzen 3900x sehr interessant. 12 Kerne und 105W etc. aber die Spieleleistung ist schon schwach. Gegenüber meinem 5820K@4Ghz sicher trotzdem en Push, aber gegenüber 9900K schon etwas schwächlich. Außer man kann ihn gut hochtakten, aber da heißt es bei Tests eher nicht.
Bei TomsHardware wurden schon ca. 50 Mobos gelistet, alles dabei. 120 bis 1000 Dollar (oder mehr). Gibt sicher ordentliche für 150-250.
Bei Intel ist PCIE 3.0 dagegen ein Fragezeichen. Sollen da demnächst Grakas kommen, die 4.0 voll ausnutzen? Dann gute Nacht.
 
Lübke schrieb:
bin echt mal auf den vergleich 10700k vs. 9900k gespannt.
schön zu sehen wie die konkurrenz bei intel die preise purzeln lassen hat und gleichzeitig die kernzahl steigen :)
hoffe der kampf auf augenhöhe hält noch eine ganze weile an, dann haben alle kunden, intel- wie amd-fans was davon. :)
Wenn beide CPU´s entsprechend ihrer Spezifikationen betrieben werden, kann ich Dir jetzt schon voraussagen, wie die Sache ausgeht. Der 10700K wird aufgrund des schnelleren Speichers (2933 gegen 2666) bei Games etwas schneller sein wie der 9900K. Das höhere Powerlimit des 10700K von 125W gegenüber den 95W des 9900K wird hierbei keine Rolle spielen, da bei Games eh selten mehr wie 70W erreicht werden.
Bei Cinebench und Co sieht die Sache sicherlich deutlicher aus, weil hier der 10700K sein Powerlimit von bis zu 250W für 56 Sekunden ausfahren kann. Hier wird der 9900K mit seinen maximal 118W für 28 Sekunden limitiert.
 
  • Gefällt mir
Reaktionen: Esenel, KlaraElfer, catch 22 und 2 andere
Supermax2004 schrieb:
Eigentlich find ich den Ryzen 3900x sehr interessant. 12 Kerne und 105W etc. aber die Spieleleistung ist schon schwach
😂 Selten so gut gelacht. Der gute 3900X spielt in den oberen 10% mit.

Was interessantes ist das CB zwar durch die Cl14 Timings augenscheinlich ZEN2 bevorzugt aber im Vergleich zu PCGH zu einem größeren Leistungsunterschied zwischen Intel und AMD kommt obwohl PCGH alle CPUs mit cl16 testet. Denn dort ist ein 9900K 1% vor dem 3900X. Bei CB 7% 🙃
 
Zuletzt bearbeitet:
KarlsruheArgus schrieb:
😂 Selten so gut gelacht. Der gute 3900X spielt in den oberen 10% mit.
Lacht man da? Achso, naja ich weniger. Wäre schön mit nem 12 Kerner in Spielen mindestens auf die Leistung eines 8 Kerners zu kommen. Aber da nur 4 bis 8 Kerne meistens genutzt werden und Intel pro Kern etwas mehr rausholt wirds wohl nix. Da wäre bei dem Ryzen etwas mehr schön. Intel erkauft sich das mit höherer Abwärme. Effizienz gegen Gewalt.
 
  • Gefällt mir
Reaktionen: Tronado
@Supermax2004

Wenn CPUs im Stockbetrieb 5-10% trennen, kann man beim anderen aber nicht von schwach reden, wenn 95% der restlichen CPUs noch langsamer sind.

Es wäre auch schön, wenn der 8-Kerner von Intel nicht teurer wäre als ein 12-Kerner von AMD.
 
Zuletzt bearbeitet:
  • Gefällt mir
Reaktionen: howdid, Hardwarious und KarlsruheArgus
Zurück
Oben