News Intel und 64 Bit, offiziell bestätigt?

Ich finde es lächerlich, dass ihr dauernd schreibt, dass 64bit keiner braucht. Wer braucht schon ein neues Windows? Läuft doch alles auf XP.
Wer braucht schon schnellere CPUs? Läuft doch alles super auf den aktuellen neuen.
Wer braucht schon neue Grakas? Die aktuellen sind eh schnell.
Warum 64bit CPUs, wenn es keine Anwendungen dafür gibt?

Eine äußerst dumme Argumentation ist das. Wie soll sich die Software weiterentwickenln wenn nicht die Hardware dafür bereitgestellt wird? Erkläre mir das bitte mal einer! Und wer soll bitte 64bit Programme schreiben wenn keiner eine Solche CPU hat? Bitte um aufklärung!
 
Wenn die Leute 64-Bit wollen, dann sollen sie es kreigen, aber sie wollen es doch gar nicht und wenn, dann vielleicht nur aus Bequemlichkeit, weil sie vorhandene Techniken nicht genug ausnutzen.

In dem Fall kannst du das gar nicht mit Grafikkarten vergleichen. Spiele werden immer opulenter und aufwändiger, deshalb gibt es auch immer den Drang nach mehr Performance und somit neuen Chips.

Aber brauch dein Nero 64-Bit? Nein Braucht Call of Duty 64-Bit? Nein. Wird es viele neue tolle Anwendungen geben, wenn man 64-Bit Technologie einführt? Wenn ja, ist sie relevant für den normalen Desktop-User? Genau darum geht es. Du kannst dir jetzt und sofort auch 4 GB Arbeitsspeicher holen, aber bringts dir was? Nein, denn 1 GB reicht für so gut wie alle Sachen vollkommen !

Aber glaub mir, wenn Intel oder AMD meinen 64-Bit Prozessoren verkaufen zu müssen, jaaaa dann ist 64-Bit das wichtigste auf der Welt und man kann nicht ohne auskommen. Ich sags gerne noch einmal, der Athlon64 ist nicht so schnell, weil er 64-Bit hat, sondern weil er eine optimierte Prozessor Architektur hat (guck dir alleine den Die an) !
 
Sie wollen es nicht!? Wer will dann DX10? Ich gete nicht dafür, dass es bald rauskommt und auch siche nicht alle Spielehersteller und trotzdem wird es kommen sobald hardware und software fertig sind. chso, und Programme dürfen nicht ausgefeilter und diffizieler werden? Vielleich würden die Programmierer von Software auch gerne 64bit nützen so wie die Vordenker im Spielebereich schon fest mit DX 10 rechnen obwohl es keiner braucht und weder DX9 noch DX8 richtig ausgenutzt werden. Nur warum und wie sollte sich jemand an 64bit heranwagen wenn nichtmal ein OS bereitgestellt wird? Siehst du nicht, dass da nicht viel Unterschied besteht?
 
Zuletzt bearbeitet:
@58

Naja, wenn ich mir die Preise angucke, ein 3,2 GHz Prescott kostet ca. 70€ weniger als ein 3,2 GHz Northwood und mir auch noch die ersten Benchmarks (Langsamer als ein gleichgetakteter Northwood) angucke dann ist der Prescott nichts als ein hitzköpfiger (Im wahrsten Sinne des Wortes) Platzhalter der noch mehr an der Taktschraube dreht, bis dann letztensendlich der Pentium V kommt.

@60

Ganz im Gegenteil, die Speicheroptimierung ist sehr gut, ansonten könnte kaum diese Grafik mit der extremen Weitsicht dargestellt werden, dazu kommt ein fließender Übergang von Indoor-Levels zu Outdoor-Levels, und das alles ohne Nachladezeit bzw. Nachladesequenzen. Das mit den bis zu 50 FPS kann schon hinkommen, erstens mal wegen der Physik und zweitens, das is das wichtigste, die KI. Da die KI so exzellent ist braucht sie auch einiges an CPU Power. Übrigens soll es in der 64-Bit Version mehr Details geben, weil die 64-Bit Version ja eh schon schneller läuft, deshalb wollen die mehr Details + höhere Sichtweite mit reinmachen.

Schonmal was von der Beta Version von Windows XP 64-Bit Edition gehört? Große Hersteller und Entwickler können diese seit einiger Zeit von Microsoft bekommen, unter anderem auch Crytek die ja Farcry entwickeln. Es würde als 0 Sinn machen wenn Intel nen eigenen Standart rausbringt da jetzt eh schon für den 64-Bit Standart von AMD entwickelt wird. Die kleinen Entwickler kommen da leider nicht ran, aber wenn ich mir angucke was 64-Bit bei Komprimierungs-Programmen bringt ist das der Hammer, über 50% weniger Zeit werden da benötigt... und da soll nochmal einer sagen 64-Bit bringt nix für den Heimanwender. Vor allem find folgende 2 Aussagen lustig:

HyperThreading bringt für den Heimandwender sehr viel!
64-Bit bringt für den Heimanwender garnichts!

Finde es echt lustig wenn manche keine Ahnung haben und dann doch mitreden wollen (Das war an die Allgemeinheit gerichtet, nicht persönlich an dich!).
 
waaaahh Counter, bitte erspar uns deine weiteren Texte. Was willst du "uns" eigentlich nun mitteilen? Bist du irgendein Pressesprecher von irgendeinem Club/Firma oder weis der Teufel?

Bist du so ZENSIERT das du hier vergleiche ziehen willst, wer nun wo, was wieivel Watt verbraucht, wer, wo ein bissl schneller im Benshmark XY ist? Ich habe selten so ein ZENSIERT gehört.

Achja, den letzten satz wie -- Finde es echt lustig wenn manche keine Ahnung haben und dann doch mitreden wollen (Das war an die Allgemeinheit gerichtet, nicht persönlich an dich!). ----- finde ich mehr als nur daneben. Wuste nicht das du über mich Urteilen kannst obwohl du mich nicht kennst. ICh frag mich woher du dir dein Wissen hernimmst? Autodidaktisch? Gibst Lehrstunden? Arbeitest du am Doctitel für CPUarchitektur?
Bei dir hört die "Intel"ligenz am Modemkabel auf!

Was Intel auf dem MArkt schmeist kann dir vollkommen egal sein! ISt nicht dein Produkt! Ob es ein Platzhalter ist, ist genauso irrelevant! Was MS macht kann dir auch egal sein, ich kann mich gut erinnern wie du auf MS shicen würdest und wie gut Linux sei und nun erwartest, NEIN DU FORDERST von MS, das sie gefälligst 64BIT für AMD rausbringen sollen. Ja sag mal, gehts nocht? Es kann dir SCHNUPPE sein was eine Firma macht, solange sie ihren wirtschaftlichen Aspekt nachgeht. Meckerst du über BMW warum sie eine gewissen Sicherheits-Technologie nicht preisgeben möchten weil sie dadruch ihr Auto besser verkaufen können?!

Ach und dann das Geschwätz mit der Verlustleistung von 30WAtt bei AMD. ICh lass es kommentarlos so stehen.

Und dann dieser Vergeleich mit Indoor und Outdoor Grafik bei 64Bit, ich lach mich gleich Schepp, hier muss der renderer darauf Optimiert/Programmiert werden, was bringts wenn der mit 32BItketten rechnet (egal) ist eh unfug weiter einzugehen. Und dann noch sagen HT sei nur was für Homeanwender, hallo - hier geht es um Rechenleistung, egal für welche Anwendung - ist ein Sportwagen auch nur für die Rennstrecke?
Genauso mit dem Spruch weiter oben warum MS bei ATI die DX9 pfade genommen hat. Am besten du gehst auf die Dev für DX9 ins Forum und list mal bissl was darüber. Hier wollte Nvidia seine eigene Suppe kochen, doch das war eher bei DX8 der fall, bei 9 gabs weniger "müll" für die DX9 Schnittstelle und hier hat es ATI einfach besser hinnbekommen. Ausserdem lassen sich beide Herstelle nicht in die Karten schauen wie sie was berechnen lassen. HIer kann MS nur etwas festelegen, ob sich Nvidia &Co darahält ist eine andere Sache.

Und du hast es bis heute nicht kapiert. Gebe es nicht Intel, wer weis wie weit wir heute mit der CPU Technologie wären, dann hiese wohl Intel nicht Intel, sondern AMD und Intel wäre die BilligCpu und Counter würde dann anstatt AMD, Intel schreiben.
Auf weitere nutzloses Zeug von dir, bin ich jetzt schon gespannt. Zum Glück bist du die minderheit die so einen mist schreibt.

PS: Ich zitier dich mal ----- Finde es echt lustig wenn manche keine Ahnung haben und dann doch mitreden wollen (Das war an die "Allgemeinheit" gerichtet, nicht persönlich an dich!).
Man beachte die " !

machs gut
 
http://www.theinquirer.net/?article=13344<---mal was zu DualCore und HTh.

An alle die sagen,wer braucht schon 64 bit im Desktopsegment.
Genau die gleichen Diskussionen gab es beim Umstieg von 16 bit auf 32 bit auch,mit den gleichen vorgeschobenen Argumenten,wie Adressierung und nicht benötigte länge von Int. oder Float.
64 bit wird kommen und sich auch durchsetzen,ob mit oder ohne Intel.
Aber da Intel nicht doof ist,werden sie auch auf 64 bit setzen,so ist eben der Lauf der Zeit,neue Technologie setzt sich durch.

Als die ersten Autos auf den Markt kamen,musste auch noch einer mit der Fahne vorneweg laufen um die Leute zu warnen,heute besitzt jedes Auto eine Hupe.:D

P.S.Wie war das mit den 684 kb Ram,beim Bill Gates?:D

Edit:Intels und AMDs 64 bit Versionen werden schon ziemlich kompatibel zueinander sein,da IMO der Aufwand für Programmierer zu gross wäre,für jedes 64 bit Proggi ne Intel und ne AMD Version zu schreiben.
Oder es gibt bald zwei Programmiererlager:
#1 Pro Intel
#2 Pro AMD
 
Zuletzt bearbeitet:
leute ich frage mich nur eine sache:

ich will mcih jetzt nicht in eure Konversation einmischen
aber der technologie austausch dass der andere Hersteller nach einem Jahr
die technologie dann nutzen darf.

Also warum nutzt den Amd HT nicht?
Ist doch schon ein Jah her, nein mehr!
 
Zuletzt bearbeitet:
TheCounter schrieb:
@58
Finde es echt lustig wenn manche keine Ahnung haben und dann doch mitreden wollen (Das war an die Allgemeinheit gerichtet, nicht persönlich an dich!).

oha, das kann man von deinen aussagen aber auch behaupten...

Die "Lüge", dass AMD in der 90nm-Produktion keinerlei Probleme hat und Opterons dann nur 30 Watt Verlustleistung haben stammt doch wohl von dir...
 
@55 TheShaft

AMD hat das niemals gesagt, einige Seiten haben das damals falsch verstanden. Entweder du hast es verpasst, als die Seite eine Gegendarstellung veröffentlichte oder die Seite hat nicht richtig aufgepasst.

Intel hat nur aufgrund von Strained Silicon und ihrer Architektur Probleme mit 90nm. AMD hat damals aber bereits ihren K8 für SOI komplett umgestellt und man meinte, dass man durch diese Arbeit es auch bei 90nm viel einfacher haben wird. Schließlich haben die ja fast 1 Jahr dran rumgebastelt.

Meiner Meinung nach verschiebt AMD den 90nm Prozess nur, weil 1. noch genug reserven in 130nm vorhanden sind und 2. man die 90nm Fertigung einfach weiter verbessern will. AMD hat die Lage erkannt, dass bald keiner mehr ein Heizkraftwerk als Rechenwerk haben will und versucht alles, um die Leistungsaufnahme weiter zu senken.


@ TheCounter

Es werden nicht die 2,4Ghz Modelle sein, die 30W brauchen, sondern die Modelle bis 1,8Ghz. Das halte ich auch für durchaus realistisch, da heute 1,8Ghz Modelle ja gradmal lauwarm werden. Gemessen wurden sie mal mit ca. 50W im 130nm Fertigungsverfahren
 
TheCounter schrieb:
@58
Die kleinen Entwickler kommen da leider nicht ran, aber wenn ich mir angucke was 64-Bit bei Komprimierungs-Programmen bringt ist das der Hammer, über 50% weniger Zeit werden da benötigt... und da soll nochmal einer sagen 64-Bit bringt nix für den Heimanwender

Woher willst du wissen, dass das nur von den 64-Bit kommt? Guck dir die Benchmarks hier bei Computerbase doch mal an, da kommt der Intel EE nah an die Athlon64 FX ran (bei Winrar). Was bedeutet das? Der DIE bestimmt hierbei viel und davon hat AMD auf den Athlon64 viel draufgepackt. Guck dir mal die Benchmarks an

https://www.computerbase.de/2003-12/test-amd-athlon-64-3000-plus/18/
https://www.computerbase.de/2003-12/test-amd-athlon-64-3000-plus/19/

Der normale User hat mehr Performance(außer bei Spielen) wenn er eine Intel CPU besitzt. Hyperthreading hat was gebracht, man konnte es auch sehr genau sehen und testen, was beim Athlon64 entweder nicht möglich ist, oder einfach nur noch nciht gemacht wurde. Natürlich sind die Programme dort noch nicht auf 64-Bit ausgelegt gewesen, aber auch danach muss man genau unterscheiden zwischen 32-Bit Performance und 64-Bit Performance. Wenn die 32-Bit Performance in allen Andwendungen sehr gut ist, verkaufen dir das AMD wie Intel mit 100%er Wahrscheinlichkeit als ein 64-Bit Wunder.

Zu DirectX10. Die Grafikkarten-Herrsteller brauchen es, um erstens wieder ein neues Produkt auf den Markt zu werfen. Der User braucht es auch, weiler immer mehr Effekte sehen will, alles soll schöner und realistischer werden. Von Microsofts Seite muss dafür immer ein neues Direct X rausgebracht werden (wenn man von OpenGL absieht).

Ich sage nicht, dass man 64-Bit generell nicht braucht, ich sage, dass man es jetzt nicht braucht und keiner sich einen Arm abbrechen würde wenn Microsoft auch bis Longhorn mit 64-Bit wartet.
 
@71)
Die Gegendarstellung musst du mir zeigen, die hab ich auf keiner Hardwareseite gesehen...
 
@73

http://www.hardtecs4u.com/news/arc10-2003.php


Und an all die, die den Prescott hier immer so loben. So gut wie alle hier schimpfen auch auf TCPA und ich muss euch sagen, ich lach euch alle so aus, wenn ihr euch den Prescott kauft. Für mich ist allein das schon ein Grund gegen den Prescott, egal welche Leistung der hat. Und wenn mir am Schluß nurnoch VIA o.ä. übrigbleibt.
 
@73 schon Peinlich^^
Die Gegendarstellung war auf diversen Hardwareseiten zu lesen, die geht allerdings schnell unter. Die 90nm Fertigung von AMD läuft wie geplant, die angeblichen Probleme wurden in eine Rede von Hector Ruiz hereininterpretiert.

Seit Ruiz das Szepter bei AMD übernommen hat, sind die Roadmaps glaubhafter geworden. Intel glaube hat da abgebaut. Allein der Paperlaunch des EE hat da jede Glaubwürdigkeit zerstört. Mal im Ernst, bestenfalls im Februar Stückzahlen in 90nm und dann 2005 65nm?
Das ist 1. unwahrscheinlich und 2. würden sich jetzige Probleme mit der Umstellung auf 65nm wiederholen. Falls Intel damit wieder einen Paperlaunch meint, dann geht das natürlich^^

Das AMD Ende 2004 Dualcore Athlons liefern will und auf 90nm umgestellt hat kann ich mir schon eher vorstellen.

Die diversen Tests schon oft genug gezeigt, dass der Prescott keine bedeutende Steigerung zum jetzigen p4 bringt. AMD hat Zeit und ist am Drücker. Auf Lagrande kann ich auch noch grad so verzichten :D

@blabla
Bist du AMD Aktionär?
 
so wie dein name
einfach nru blabla hauptsache was sagen aber ohne verstand!

TCPA nützt nur was mit longhorn
ist so wie ein schläfer nur keiner kann ihn anrufen


"Für mich ist allein das schon ein Grund gegen den Prescott, egal welche Leistung der hat"

Der Satz disqualifiziert dich um mit dir eine anständige Konversation zu führen!

egal wieviel leistung, ich kauf dem Trotzdem nicht,
deine argumentation kann man beim besten willen nicht verstehen

Zufällig sitzt amd auch mit ihm TCPA Boot nur keiner will es für wahr haben!

Errinnert stark am MS
jeder hier hasst die Firma
aber trotzdem nutzt fast jeder hier ihre Prgramme,
auch wenns nur Direct X ist.

Letzendlich kauft man trotzdem deren Produkte
 
@mat3003
habs leider durchgelesen und es war absolute Zeitverschwendung. Kenne aus der Kindheit,
also aus deinem Stadium noch bessere Märchen. Gott lass Hirn regnen!
 
@75
Wieso peinlich ? Ich bin nur einem Link von 3D Center gefolgt...

außerdem ist es doch klar, dass amd offiziell dementiert, sonst wären sie schon ziemlich dumm..
 
Zuletzt bearbeitet:
Zurück
Oben