Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Websites nicht korrekt angezeigt werden. Du solltest ein Upgrade durchführen oder einen alternativen Browser verwenden.
Ryzen 5700g und 64 GB passt vom Leistungsverhältnis nicht wirklich zusammen. Entweder da dann auf nen Ryzen 7 77xx oder Ryzen 9 gehen oder es reichen sicherlich auch 32 GB RAM.
@Bentosan Der TE schreibt doch von der späteren Nachrüstung einer Grafikkarte und damit ist ein 5700G eher ungeeignet. Besonders bei langer Nutzung wird man mit knapp 20% mehr Leistung des 5700X länger Freude dran haben. Ich habe selbst einem 5600G mit 32GB im Büro, würde aber nicht auf die Idee kommen, das als Basis für Spiele zu nehmen.
Ich rechne 20% Leistung mit einer Generation, also +2 Jahre Nutzungsdauer. Anders verhält es sich ohne Grafikkarte ... da ist ein 5700G mit flottem RAM weiterhin eine super Lösung.
Wenn er aber jetzt den 5700X verbaut, dann muss er auch jetzt eine Grafikkarte einbauen, die er eigentlich gar nicht braucht/will und nur als spätere Option offenhalten will! Daher finde ich die Diskussion völlig unnötig.
Der 5700X verursacht Mehrkosten für CPU und Grafikkarte sowie einen höheren Strombedarf.
Für den Fall, dass er später doch einmal eine GPU nachrüstet, so kann er dann immer noch entscheiden, ob es auf das letzte bisschen Frames ankommt und dann bei Bedarf die CPU verkaufen und einen 5700X gebraucht holen oder gleich einen 5800X3D. Das Geld dafür hätte man dann wohl längst über die Stromkosten drin.
Denke die Meinungen und Informationen bzgl. 5700G vs. 5x00(x) und PCIE sind im Wesentlichen ausgetauscht. Ein Upgrade wäre alles. Vielleicht findet der TE nochmal heraus, ob der Freund direkt ne Graka einbauen will, oder eben nicht. Wenn nämlich nicht, dann ist die Diskussion eh Essig. Dann könnten wir uns nur noch bzgl. AMD und Intel streiten, falls vllt aktuell gar nicht gespielt werden soll.
es besteht noch eine Grafikkarte, die braucht dann vll etwas mehr Strom aber könnte man nutzen - wäre trotzdem gut zu wissen welche es ist.
Alternativ wäre noch ein 13500 oder 13600, die auch schön sparsam im Idle sind und sowohl mit günstigem DDR4 RAM als auch neueren DDR5 betrieben werden können.
Ryzen 5700g und 64 GB passt vom Leistungsverhältnis nicht wirklich zusammen. Entweder da dann auf nen Ryzen 7 77xx oder Ryzen 9 gehen oder es reichen sicherlich auch 32 GB RAM.
Es wird nach einem sparsamen Office System verlangt... Warum empfiehlt hier jeder die AMD Stromschleudern in diesem Szenario?
AM4 und AM5 zu hoher Verbrauch im Idle, niedriger und mittlerer Last. Super effizient bei hohen Lasten.
Intel, super effizient im Idle, besser als AMD in niedrigen und mittleren Lasten. Super stromhungrig bei hohen Lasten.
Im Mittel ist hier Intel die bessere Wahl.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Sonderfall AMD G Serie APU. Weniger Endleistung als Rest der 5000er Serie.
Super Idel mit PPT runter bis unter 10W gegenüber 25W+ bei non APU. Sparsam bei geringeren und mittleren Lasten. Vorteil der Effizienz bei hohen Lasten bleibt erhalten.
Ich habe ein ähnliches Nutzerverhalten und deswegen bereits schon 2014 ein Minimum von 32GB verbaut gehabt. 3 Monitore mit X Tabs und Browsern offen, dazu aktive Office Anwendungen und Bildbearbeitung. Wenn ich dann mal eine 15 Min Gaming-Pause machen möchte, gehe ich nicht an einen anderen Rechner oder schließe deswegen die Programme, nur weil ich sonst zu wenig Arbeitsspeicher hätte. Mit den steigenden Anforderungen für die Programme machen 64GB Ram durchaus Sinn.
Der PC soll so funktionieren, dass man damit in seinem "Arbeitsszenario" alles machen kann. Da spare ich doch nicht 65€ am Arbeitsspeicher und verursache mir hier künstlich Limitierungen.
Ein Ryzen 9 mit 32GB? Das wären im besten Fall noch 2,6GB pro Kern. Ausgehend von einem nicht nur Spiele-Orientierten denken, betreibt man VM's mit einem CPU Kern schon mit einem Minimum von 4GB RAM. Die Ram/Kern Verteilung ist in diesem Beispiel auf einem schlechteren Niveau als Pre-Build Systeme von 2004.
ElDiablo schrieb:
Der TE schreibt doch von der späteren Nachrüstung einer Grafikkarte und damit ist ein 5700G eher ungeeignet. Besonders bei langer Nutzung wird man mit knapp 20% mehr Leistung des 5700X länger Freude dran haben. Ich habe selbst einem 5600G mit 32GB im Büro, würde aber nicht auf die Idee kommen, das als Basis für Spiele zu nehmen.
Die Leistung beider AMD APU'S liegt auf und über dem Niveau eines 3700X.
Wenn du den 5600G selber betreibst, dürfte doch aus erster Hand klar sein worauf ich hier anspiele.
TE möchte "EIN" System, welches ihm primär als Office PC dient und später mit einer Grafikkarte die spielerischen Möglichkeiten erweitern. Wenn "Euch" Leistung zum Spielen nicht reicht ist das eine Sache, aber dann empfehlt doch bitte eine CPU die dem Nutzerverhalten entspricht. Siehe oben, Thema Effizienz und Grundverbrauch.
Ein sinnvoll aufgesetztes System mit 2 M.2 verbraucht gerade mal um die 12-14W im Idel und 20-30W wenn man damit arbeitet. Damit ist die Benutzung von der APU als Basis im Betrieb noch sparsamer, als wenn man eine Alternative AMD CPU nur im Idel stehen hat. Wird der PC nur 5 Jahre benutzt, hat TE wohl den gesamten Anschaffungspreis nur über den gesparten Stromverbrauch wieder drin.
Nach wie vor spielen hier Auflösung und Wiederholfrequenz eine gravierende Rolle.
Ich hab mit dem 5700G ne 3070 verbaut, die ich netterweise bis 0,725V undervolten konnte und noch immer meinen Monitor voll bedienen kann. Ich zocke auf 3440X1440 bis 100hz.
Nicht jeder stellt hier alles auf Maximum, nur um in einem Busch drei Blumen mehr zu sehen und dafür 20FPS zu opfern.
Gehen wir doch mal das wohl unpassendste Beispiel durch.
Ein 5700G mit ner 4090.
Wie lange wird man dieses System wohl mit 1080p und 60 FPS betreiben können?
Wie lange würde das System wohl mit 4k und 60FPS betrieben werden können?
Wie lange wird wohl DLSS 3 + Framegeneration funktionieren, um die CPU Limits zu umgehen?
Wie lange wird es wohl dauern, bis man die Leistung einer 4090 für 200-300€ bekommt?
Heute würde keiner mehr eine 140W GTX 660 benutzen, um einen Office PC zu bauen. Der 5600G/ 5700G kann diese Leistung bei schnelleren Arbeitsspeicher heute über die integrierte Grafik erreichen.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
Sicher gibt es hier und da ein paar Probleme, das liegt aber zum Teil eher an den Spielen als an der Hardware.
Dann wäre noch immer die Frage, ob die erreichten Frameraten wirklich unspielbar sind - es ist ja immerhin eine APU und damit also absolut nichts für Gaming.
Wer ein System 10 Jahre benutzen möchte, der geht doch von vorne herein mit dem Wissen daran, dass ab einem gewissen Punkt mit Abstrichen zu rechnen ist.
Die APU kann hier das Flaggschiff von AMD handeln. TE kommt von einer Sandy Bridge Intel 2000er Serie mit einer Grafikkarte die wohl ähnlich alt sein wird und möchte etwas neueres.
Selbst wenn die CPU mal nicht mehr reichen sollte zum Spielen, kann man selbst mit der APU solo noch einen 30 Bit Workflow hinlegen, ohne eine dedizierte GPU überhaupt zu benötigen.
Intel würde hier mit dem 13500 wohl schon alles notwendige abdecken. Sparsam in Office und leichten Anwendungen und wenn TE Bums will geht, es halt auf die Stromrechnung. Stärker als die APU in den maximal möglichen FPS auf der CPU Seite aber ähnlich Effizient für die Hauptaktivität.
Es liegt letzten Endes am TE, was genau er an Leistung haben möchte und welches Szenario für seine Anwendung am besten passt.
Auf so eine Liste warte ich auch noch. Bislang habe ich mir die Verbrauchsdaten über die PPT Werte rausgeholt.
Oben im Video sieht man ja die verschiedenen Lastszenarien.
Ich denke allerdings nicht, dass hier noch groß was kommen wird. Die IGPU ist ja für Gaming zu schwach und wird prinzipiell mit den neusten dedizierten Grafikkarten verglichen, um das zu verdeutlichen.
Die gängigen Tuber beziehen sich hauptsächlich auf die Gaming Leistung und den Verbrauch im Spiel. Die unteren Lasten werden, wenn auch selten, eher bei Content Creation angesprochen. Alternativ bekommt man bei Kanälen mit Emulationsfokus noch Infos.
Der Bedarf für reine Office PC Kanäle dürfte überschaubar sein... was juckt mich der Verbrauch von einem Ryzen 9 mit Igpu, wenn ich den Standard Kram auf einem 8W Chromebook erledigen kann.
Und seien wir mal ehrlich, wer sich ne 2000€ Grafikkarte zum Gamen in die Kiste baut, wird wegen 50W mehr im Office kein Fass aufmachen.
ich mach dafür ein Fass auf und überlege mir ne 4090 zu holen, da die anderen Karten irgendwie Murks sind.
Ich hab aber auch hohen Idle Anteil und da ist AM5 echt nen Stück hinter 1700.
Macht dann im Jahr bei einigen Stunden Idle im Schnitt am Tag, ca. 20-35€ pro Jahr aus mit so 35ct Stromkosten je nachdem wie viel man ihn nutzt.
Mal zur Einschätzung was ich gemessen habe mit IGPU: 8700k mit fixed v-Core 1,32V und 1,4v RAM ca. 45W (also etwas runter wäre wohl möglich gewesen) ohne GPU und 7800X3D mit Asus X670e TUF Wifi ca. 50W ohne EXPO und mit EXPOII ca. 60W.
Aber ich denke von den Computerbase Warten tut man ca. 8-12W abziehen und hat die IGPU Werte bei einem Monitor, dadurch das alle die gleiche Karte haben und die IGPU generell sparsam ist, ist es ein grober Anhaltspunkt der ausreicht, da das meiste ja die CPU Idle und Board Basisaufnahme bestimmt.
Idle Werte: 5700G ohne ohne Lüfter nur Heatsink - 1x m.2 - 3 2,5" SSD- 32GB 3200cl16 - 350W 80+ Bronze Bequiet Bulk
MSI B450 Tomahawk MAX
19,1 W
Gigabyte B450M S3H
24,1 W
MSI X570S Tomahawk MAX Wifi
25,1 W
Und das waren nur die 3 Boards die ich hier im direkten Vergleich durchgetestet habe.
Hätte ich nicht einen reinen GeForce Monitor wäre ich bei den AMD GPU'S, die 3070 zieht mir alleine schon 16W im Idel.
Mit nem Undervolt macht die 4090 wirklich ne menge Sinn.
1070 bei 0,7v schafft stabile 60FPS auf 1080p bei nahezu jedem aktuellen Titel. 5600G TV Setup
die 3070 bei 0,725 schafft zwischen 60 und 100FPS bei 3440x1440.
Beide Karten Verbrauchen hier nur zwischen 80-90W.
Ich will nicht wissen was die 4090 da leisten kann.
PCGH gibt bei ihren Mainboard Tests die ja auch einige Testen einen Idle Verbrauch mit Grafikkarte an, da kann man es auch ganz gut vergleichen und halt bisschen was abziehen für die GPU und man kann so grob einschätzen wie sich die Plattform im Schnitt verhält im Vergleich bei ähnlichen Boards.
Die 6700 wäre noch immer meine to Go Karte. Vor ein paar Wochen ging die wieder für 299€ über den Tisch...
Leistung genau zwischen ner 6650XT und ner 6700XT. Volle Anbindung und in allen Bereichen weniger Stromverbrauch.
Lässt sich super undervolten und kommt dann fast an die Werte von der 6700XT bei deutlich weniger Verbrauch. Wer natürlich mehr Leistung braucht schaut in die Röhre. Mein Monitor ist leider von 2017 und kann daher kein Freesync... sonst wäre das nen No Brainer.
5700X braucht 7W mehr im Idle. Macht bei 35cent pro kWh also etwas über 0.2cent/h. Ob man die 7 Euro im Jahr bei 365/8 Nutzung ausgeben will, soll jeder selbst entscheiden. Davon neue Systeme zu kaufen, ist aber ziemlich schwierig. Wenn ich die iGPU des G nicht brauche, zahle ich 50€ Aufpreis zum 5600 für weniger Leistung.
@ElDiablo
Ich lasse mich gerne eines Besseren belehren.
Habe noch keinen PPT Wert gesehen, der beim 5700X unter diesem lag. Würde mich freuen, da noch mehr Referenzen zu bekommen.
Hier mal mein System zum Vergleich.
Das sind nach meiner Rechnung 13W und damit wären wir nur im Idle bei ca.14€/Jahr
Es geht aber nicht nur um den Idel, sondern das Boost verhalten, sprich geringe und mittlere Lasten. Der 5700X taktet deutlich weiter hoch und landet eher um die 40W beim Öffnen von Elementen, wo der 5700G nur bis nur 15W benötigt. Ebenso das Verarbeiten von geöffneten Elementen erfordert eine deutlich geringere Leistung auf Seiten der G Serie.
Man hat beim 8 Kerner ne bessere Lastverteilung im Multitasking und im Multicore hat er mehr Leistung als der 5600, aber wahrscheinlich ging es hier wieder um die FPS.
Ich habe nie abgestritten, dass es Sinn machen könnte einen AM4 oder AM5 zu holen.
Es geht hier aber noch immer um ein Office System. Wenn 90% der Arbeit daraus bestehen Texte zu lesen und zu verarbeiten, tut mir persönlich jeder verschwendete Cent weh.
Auch wird man in einem klassischen Office eher hohe Auflösungen und Bildfrequenzen im 60hz Bereich haben, wo der Fokus meist auf der Bildqualität liegt.
Da würde ich einfach keine CPU empfehlen wollen die unnötig viel verbraucht und eigentlich überdimensioniert ist. Selbst ein Intel 12400 ist für Office alleine schon Overkill.
Spielen ist hier doch eher als Ausgleich zu verstehen, damit sollte also etwas Leistung vorhanden sein, um mit einer dedizierten Grafikkarte auch mal etwas anspruchsvolleres Spielen zu können.
Von mir aus nimm den G Serie als kleinsten Einstieg, weil ja alles andere sowieso mehr FPS bringen wird.
Wenn also die kleinste CPU hier noch die neuste 1000€ GPU auslasten kann, ist das wirklich nicht ausreichend?
Nur nochmal als Erinnerung, wenn die GPU bei 100% liegt, wird auch ein 5700X nicht mehr FPS ausspucken, er wird nur mehr verbrauchen für das gleiche Ergebnis.
YouTube
An dieser Stelle steht ein externer Inhalt von YouTube, der den Forumbeitrag ergänzt. Er kann mit einem Klick geladen und auch wieder ausgeblendet werden.
5700X braucht 7W mehr im Idle. Macht bei 35cent pro kWh also etwas über 0.2cent/h. Ob man die 7 Euro im Jahr bei 365/8 Nutzung ausgeben will, soll jeder selbst entscheiden. Davon neue Systeme zu kaufen, ist aber ziemlich schwierig.
Du kannst doch die Rechnung nicht machen, ohne dabei eine Grafikkarte einzubeziehen! Selbst wenn Du den 5700X nur mit einer GT 730 kombinierst, so hast Du zusätzlich zum Mehrverbrauch der CPU auch noch zwischen 5-40W mehr für die Karte ggü. der iGPU! Von den ca. € 70,- Kaufpreis ganz zu schweigen...
Naja, den 12400 würde ich eher mit einem 5600G vergleichen.
Eher dann ein 12600k, wobei der 13500 hinsichtlich P/L und Effizienz wohl besser sein dürfte.
Wäre allerdings eine ganze Ecke teurer als ein System mit 5700G und die Leistung braucht man wahrscheinlich nicht.
Wie sähe es aus mit einem Intel System auf Basis eines i3-13100?
Wenn das System ohnehin eigentlich nur für Office und Browsen sein soll, dann sollten doch 4 Kerne eines i3 bereits mehr als ausreichend sein. Abgesehen vom Browser ist über die Anwendungen ja nichts weiter bekannt.
Bezüglich der Effizienz liegt die Leistungsaufnahme im Idle, laut den Tests von CB, etwas über einem System mit 5700G, unter Last ist der Intel jedoch sparsamer. Denke mal im Mix dürften die sich nicht großartig unterscheiden.
Da würde ich mir eher Gedanken um ein gescheites Netzteil (kein 80+ Platinum/Titanium, die Kosten bekommt man in dem unteren Leistungsberich im Lebtag nicht mehr rein).
Ein vernünftiges 350W/400W 80+ Silver/Gold ist für Office PCs bereits mehr als ausreichend.
Wenn man eine Grafikkarte mit einplant von der man nicht mal weiß ob und was, würde ich z.B. zu einem Pure Power mit 650W oder was vergleichbarem mit 80+ Gold greifen. Damit sollte man idr. zumindest die Mid und Highmid-Range Karten mit abdecken. Wer weiß wohin sich die Leistungsaufnahme der dedizierten Grafikkarten künftig noch hin entwickelt.
Bentosan schrieb:
Wann genau bringt mir bitte PCI_E 3.0 Probleme und wo limitiert es?
Bei Karten mit x8 Interface, welches bei Low- und ab der RTX40 auch bei Mid Range karten eingesetzt wird, siehe kommende RTX4060(Ti), kann und wird das sehr wahrscheinlich zu einer verminderten Leistung führen.
Bereits bei der RX5500 konnte CB vor Jahren schon einen leichten Unterschied Messen (Link). Der Unterschied lag nur bei ein paar Prozent, war aber messbar, gleiches bei der RTX3050.
Wie stark sich das bei einer nicht Low-End RTX verhalten wird bleibt abzuwarten. Bis Ende Mai zum Release der Karten dürfte es auch entsprechende Tests geben.
Gravierender wird das bereits bei der RX6500 die nur noch ein 4x Interface besitzt. Da war der Einschnitt PCIe4 zu PCIe3 wirklich massiv, vor allem bei den percentile-FPS: Link
Gravierender wird das bereits bei der RX6500 die nur noch ein 4x Interface besitzt. Da war der Einschnitt PCIe4 zu PCIe3 wirklich massiv, vor allem bei den percentile-FPS: Link
Aber auch nur bei deutlicher Überschreitung des VRAM. Bei Fortnite und The Witcher 3 z.B. war kein Unterschied!
Natürlich kann man bewusst Szenarien schaffen, wo der Unterschied messbar ist, ob er aber für jeden Usecase relevant wird, muss jeder für sich selbst sehen...
Ups, ich hatte das Interface "hier" ausgelassen. Füge ich am Ende nochmal aus nem anderen Thread nach. Danke.
Gorasuhl schrieb:
Gravierender wird das bereits bei der RX6500 die nur noch ein 4x Interface besitzt. Da war der Einschnitt PCIe4 zu PCIe3 wirklich massiv, vor allem bei den percentile-FPS: Link
Für ein späteres Upgrade der GPU, wäre AMD zu bevorzugen. Vorteil wäre "ein" Treiber der sowohl die IGPU als auch die dedizierte GPU unterstützt.
Was die Karten selbst angeht, sollten diese eine interne X16 Anbindung haben, da die neuen Karten alle mit 4.0 aufgelegt werden. Dabei ist egal ob es Intel, Nvida oder AMD wird.
Das ist in sofern wichtig, weil die Menge an Daten die transportiert werden kann, bei 3.0 deutlich kleiner ist.
Eine 4.0 Karte kann mit einer X8 Anbindung entspricht dem Datendurchsatz von 3.0 X16.
Bedeutet, dass eine 4.0 X8 Karte auf dem A520 Board in eine Limitierung laufen kann, da sie dort dann nur noch mit 3.0 X8 läuft.
Das Klingt erstmal dramatischer als es ist, aber selbst eine 4090 lastet den 3.0 X16 bei Spielen nicht aus. Wenn also in vielleicht 3 Jahren ne 4090 Leistung als 7060 zu haben ist, wird die noch immer passen.
Bereits bei der RX5500 konnte CB vor Jahren schon einen leichten Unterschied Messen (Link). Der Unterschied lag nur bei ein paar Prozent, war aber messbar, gleiches bei der RTX3050.
Du wirst bei jeder Karte einen Unterschied zu PCI-E 3.0 zu 4.0 finden. In einigen Spielen kommen diese stärker hervor in anderen weniger.
Ebenso setzt dies voraus, dass die Karte dafür immer auf ihrem Maximum läuft. Bei nem 60er FPS Limit merkst du keinen Unterschied, nicht mal bei der 6500XT mit der X4 Anbindung.
Ich habe die 6500 XT selber im Betrieb, in einem 5600G, auf Pci-e 3.0, für Streaming. Wenn du weißt, was du tust, kümmert dich keines der Laster.
4gb Ram - passe die Settings an - Problem gelöst
Die Karte hat aber keinen Encoder - Vega IGPU der OBS Anwendung zuweisen, Problem gelöst
Ich bekomme meine Grafikkarte nicht ausgelastet, weil die Bandbreite limitiert - Stell die Auflösung hoch - Problem gelöst und hebt die Stream-Qualität an.
Tada, funktionierende RX 6500 XT.
Dazu haben wir noch optional Undervolting, um die Maximale Leistungsaufnahme zu begrenzen. Angepasste/höhere Taktung, bessere Frametimes, geringere Wärmeentwicklung und nebenbei eine wunderbare Option die Leistung der Karte künstlich auf 3.0 X4 zu limitieren, ohne die Komponenten permanent der maximalen Belastung auszusetzen.
Und Ja, sie wird auf 4.0 in einigen Spiele trotzdem besser laufen. Das macht die Karte deswegen für 3.0 nicht unbrauchbar.
Bei der ganzen Anbindungskiste kommt es auch hier wieder komplett auf den Einsatz der Karte, die Auflösung und die gespielten Spiele an.
Damit ich mir nicht wieder einen Wolf schreibe, hier ein Link zur Thematik.
Gedanken würde ich mir erst dann machen, wenn sie Karten mit Pci-E 5.0 auflegen und selbst dann ist noch fraglich, in wie weit das überhaupt limitieren wird, wenn man die Karte entsprechend nutzt.
Also Leute... bloß kein mehr 4.0 kaufen, das wird bei 5.0 limitieren. AM4 ist tot! PCI-E 5.0 ist da!
Momentan sind 4.0 und 5.0 eine sehr gelungene Umsetzung, um mehr und leistungsstärkere Features auf der gleichen Boardfläche zu verbauen.
Leider heißt das aber auch, dass dem Kunden noch mehr Features aufgezwungen werden, die sie bezahlen müssen, aber oftmals nicht nutzen werden.
Wer Plug und Play will, der geht auf Nummer Sicher mit einer X16er Anbindungen für 3.0 oder gleich auf 4.0.