Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
NewsRyzen Threadripper: 1950X und 1920X zu Preisen von 999 und 799 US-Dollar
Hast du denn einen Ryzen und könntest den Test machen?
Mich würde wirklich interessierten ob davon alle Prozessoren betroffen sind.
AMD schweigt sich zur Zeit nämlich hartnäckig darüber aus.
😂😂😂 Ich würde das gebastele von Intel sogar SkyFail XXXXL bezeichnen, hört sich besser an! Würde mich nicht wundern das die CPU bei diesen Bezeichnung mehr Käufer finden würde!!😂😂😂
Es dürfte eher gebrauchte Server Hardware gewesen sein. Die bekommt man teilweise extrem günstig hinterher geschmissen, wenn sie mehrere Jahre auf dem Buckel hat. Siehe auch http://www.techspot.com/review/1155-affordable-dual-xeon-pc/
Da geht es um 8C Xeons aus 2010, die man für 70$ bekommen kann. Das ist aber wie schon geschrieben nicht ganz vergleichbar.
Sobald es nämlich in den professionellen Bereich geht, ist Threadripper im Vergleich zu Epyc/Xeon ungeeignet. Im semi-professionellen Bereich wirst du nicht einmal mit der Lupe genug Anwendungen finden, die von mehr als 20-30 Lanes irgendwie noch spürbar profitieren könnten.
10 GB-Bit, TB3 und Fireware halte ich für real, wenn Du einen Videoschnittsystem hast, das mit einem NAS zusammenarbeitet, und Du dafür auch TB3 brauchst.
Threadripper kann ich mir gut in ner ESX Umgebung für kleine Mittelständler o.Ä. vorstellen. Da kann man jeder Zweigstelle sehr günstig nen "eigenen" Server zur Verfügung stellen ohne sich in zu große Unkosten zu stürzen.
Vor zwei Jahren war die v3 CPU vermutlich erst auf den Markt gekommen. Wir brauchen nicht darüber zu diskutieren. Threadripper ist eine tolle Plattform für bestimmte Anwendungen. Die Welt wurde damit aber nicht neu erfunden.
HEDT ist was für Spiele und semiprofessionelle Anwendungen. Noch nie war so viel Leistung so günstig zu bekommen. Wer allerdings viele Kerne braucht und die Anwendungen dafür hat, für den gibt es schon seit Jahren durchaus bezahlbare Systeme zu kaufen.
Allerdings ist Xeon eben nicht mit Threadripper sondern nur mit Epyc zu vergleichen und sprechen verschiedene Märkte an.
Ergänzung ()
PHuV schrieb:
Bin ich schon bei 41 Lanes. . Selbst wenn man nur eine 2. GK verwenden will, braucht man 2x16 Lanes, wenn es vernünftig laufen soll.
10 GB-Bit, TB3 und Fireware halte ich für real, wenn Du einen Videoschnittsystem hast, das mit einem NAS zusammenarbeitet, und Du dafür auch TB3 brauchst.
Wie ich schon erwähnt habe, wer theoretische Szenarien erfinden will, wird es auch tun.
Jetzt erkläre mir aber wieviel Zeit du damit verbringen wirst, gleichzeitig die Daten über 3 verschiedene Schnittstellen zu übertragen und dabei die Grafikkarte voll auszulasten. Dann hätte ich gerne die Software und das Anwendungsszenario bei dem es notwendig ist. Dann kann man in der Tat von einem Bedarfszenario reden. Sonst ist es ein Nice to Have.
Wer den ganzen Tag mit professionellen 4K Videoschnitt verbringt, der wird vermutlich irgendwie einen Vorteil daraus ziehen können. Nur ist Threadripper keine Plattform für ihn, sondern Xeon und EPYC.
Wer ab und zu zuhause Spaß dran hat ein paar Videos zu bearbeiten, wird bei 20,40 oder 60 PCIe Lanes eh keinen Unterschied merken und wenn, werden sich diese in 5-10% Bereich bewegen.
PHuV schrieb:
Selbst wenn man nur eine 2. GK verwenden will, braucht man 2x16 Lanes, wenn es vernünftig laufen soll.
Man BRAUCHT nichts davon und die Unterschiede sind schon bei den Grafikkarten bestenfalls messbar. Beim Storage müsstest du schon den ganzen Tag gigabytegroße Dateien hin und her verschieben WÄHREND du die Grafikkarte mit Volllast betreibst. Mir sich da schlichtweg KEINE Real World Anwednungsszenarien bekannt.
schon richtig , merken ob ne ssd nur mit 2 oder 3 GB/sec Daten lädt wird man kaum , es dauert nur 1 - 2 sec länger
jedoch , wenn ich mir schon 2 , 3 , 4 schnelle ssd s zulege möchte man doch auch das diese ohne Einschränkungen funktionieren , sonst reichen auch Sata SSD s .
Überhaupt sind mittlerweile SSD s mit 4xPCIe3.0 nicht mehr die Speerspitze , es gibt jetzt schon welche mit 6 GB/sec , die sitzen dann auf 8x Pci3.0 Erweiterungskarten .
Der Bedarf an PciLanes wächst ständig weil die Datenübertragungsraten ständig ansteigen , mittelfristig gesehen werden die Kupferadern verschwinden und durch Glasfaser und opt Transceiver http://www.itwissen.info/Optischer-Transceiver-optical-transceiver-OT.html ersetzt . Dies wird allerdings noch mehr als einige Jahre dauern , im Serverbereich gibt es allerdings so etwas schon .
Also da könnte man Intel nur raten 2 Kabylake Chips(7700 k) in ein Gehäuse zu packen. Dann hätte man wenigstens bis 16 Threads was brauchbares in der Pipe... Aber nein - geht auch nicht, dann wäre man laut eigenen Angaben bei 260 W max. Stromverbrauch. Mit Zahnpasta unterm IHS geht das ja auch nicht..
@Xedos: Auch ist die Frage ob Intel überhaupt Chips "zusammenkleben" kann. Keine Ahnung ob die dafür notwendigen Verbindungen existieren. Wenn dann müsste man wohl auf Server-Dice ausweichen und nicht Kabylake nehmen und dann eben ein Mehrsockelsystem in einem Chip-Gehäuse aufbauen.
schon richtig , merken ob ne ssd nur mit 2 oder 3 GB/sec Daten lädt wird man kaum , es dauert nur 1 - 2 sec länger
jedoch , wenn ich mir schon 2 , 3 , 4 schnelle ssd s zulege möchte man doch auch das diese ohne Einschränkungen funktionieren , sonst reichen auch Sata SSD s .
Das ist absolut richtig, aber selbst ein Ryzen oder jede beliebige andere CPU hat genug Lanes um die Daten von einer auf eine andere 4x SSD zu verschieben. Damit es zu einer Einschränkung kommt müsste man schon gleichzeitig Daten kopieren und die Grafikkarte voll auslasten, was schon in dem simplen Szenario selten vorkommen wird.
Ja, und jetzt noch TR als 1900X mit 8/16 Kernen, feines Ding, Quad-channel, PCI-lanes satt - sehr schön. Dann wird es doch kein 1800X. TDP ist laut Wiki Computer Engineering übrigens 125W.
@rg88 - Ja, sicher- aber wo ein Wille... bei Core Duo Quad haben sie es ja auch hin bekommen Diesmal trifft es Intel aber einigermaßen unvorbereitet. Hat Halt die Werksspionage nicht richtig funktioniert. Ganz schlimm ist ja, das sie erst jetzt nach neuen Chip Designern suchen. :Freak Jim Keller hääte ohne das Know How von Big Blue sicher auch nicht diesen Chip kreirt.
Ja- den hab ich ja auch noch verbaut ...wie konnt ich das bloß vergessen ?
..und schließlich hat mich der 3770k auch nie im Stich gelassen. Also nicht undankbar sein.
Aber seiner Zeit hatte AMD auf die Intel Core Entwicklung auch nicht reagiert. Als ich die ersten Benchs
gegen AMD Athlon64 gesehen hatte, war mir klar, das Intel mit Core locker vorbeiziehen wird.
Von wieviel % der privaten PC Käufer reden wir hier? Diejenigen die wirklich das alles brauchen die werden etwas vergleichbares haben und die werden wahrscheinlich bei einem Neukauf diese Prozessoren in Betracht ziehen. Keine Frage. Aber diejenigen die es brauchen im Sinne es ist existenziell das ist eher die Ausnahme. Ich finde das was AMD da rausbringt super. Der Wille des Habenwollen ist da aber wenn ich dann auf den Preis gucke wird das schon stark gedämpft. Wenn ich dann weiter überlege was ich mit dem PC tue naja dann wäre solch ein System wie Geld verbrennen. Ich sehe es als technologisches Meisterstück das zu bringen aber das notwendig wäre für die Mehrheit der PC Nutzer - das ist es nicht. Zumindest nicht bei Stand der Software. Das gilt natürlich auch für die Intelprozzis. Gut ist das es den Wettbewerb wieder in Gang bringt davon profitieren wir alle.
Yep, der Pentium D war der Anfang.
@rg88 jo, habe ich überlesen, der Rest passt aber, vllt. liegen hier auch die anderen daneben und es sind tatsächlich 10/20, warten wir es ab.