Win 7 und Win 10 formatieren von USB Sticks

Es gibt 46 Antworten in diesem Thema. Der letzte Beitrag () ist von Amelie.

    Amelie schrieb:


    (...) Meine HDDs / SDDs sind alles 2,5'' also ohne Stromversorgung. Mein USB-Hub hat eine eigene Stromversorgung, aber da schließe ich nie die SDD/HDD an (...)

    Für meine älteren PCs - aber mit Win10 - benutze ich für größere Datenübertragungen und regelmäßige System-Backups nur konventionelle (HDD-Scheiben) 3,5-Zoll-Laufwerke mit einem externen Netzteil (12V Hohlstecker), das zu dem Produkt mitgeliefert wurde. Das Netzteil wird an die ~230V Steckdose angeschlossen und die Spannungsversorgung der Festplatte ist vom PC völlig unabhängig - irgendwelche Spannungsabfälle über USB-Kabel, -Buchsen oder temporäre Stromversorgungsunterbrechungen sind dann irrelevant. Bei dieser Beschaltung hatte ich noch nie irgendwelche Probleme, Verbindungsunterbrechungen oder Abbrüche der Datenübertragung, was auch für System-Windows-Backups, die teilweise über Stunden laufen und währenddessen man keinen Zugang zum PC hat, sehr wichtig ist. Außer der externen USB-Festplatte mit eigenem Netzteil habe/benutze ich noch eine Andockstation für SATA-HDD, die auch mit einem externen Netzteil versehen ist - in die kann man aber auch SSD mit SATA einstecken und sie funktioniert sowohl mit USB-2.0- als auch USB-3.0-Anschluss; SSD-Laufwerke benutze ich für Backups aus Sicherheitsgründen aber gar nicht - da sind mir die Metallteller mit magnetischem Speichern immer noch sicherer als Flashspeicher, das Tunneln von Elektronen und meistens schlampig geschriebene Algorithmen für diese Laufwerke. Sie - diese Andockstation - nimmt auch die kleinere 2,5-Zoll SATA-Laufwerke auf - Fotos angehängt. Damit kann man auch ganz gut eine Win10-Neuinstallation oder Windowsreparatur durchführen, sofern man die eingesteckte Festplatte entsprechend präpariert hat - eine zusätzliche, kleine 'Startpartition' muss nach dem Formatieren erstellt werden, auch für sonstige Live-System-Software (ohne Windowsbetriebssystem) ganz gut geeignet. Für Übertragungen von kleineren Dateien (deutlich unter 1GB), die manchmal so zwischendurch anfallen können, habe ich mir neue Sticks gekauft, die mit den üblichen Spannungsschwankungen und -problemen klarkommen, nachdem sich ein oder zwei meiner älteren Sticks durch internen Flashspeicher-Crash auf 'nie-wieder-sehen' von dieser Welt verabschiedet haben. 5 oder 10GB kann ich notfalls damit auch kopieren, wenn die Zeit dafür da ist, weil es eben maximal nur mit der Datenrate von USB-2.0 läuft, meistens aber deutlich langsamer, weil die Algorithmen und Puffer dieser Sticks mit diesen Datenmengen und Anzahl an Dateien an ihre Grenzen kommen; auch eine Fehlerkorrektur läuft im Hintergrund und drosselt die Übertragung entsprechend immer weiter, falls laufend zu viele Fehler passieren. Wichtige Daten als Backups werden aber auf solchen Sticks nie aufbewahrt, sie dienen nur der Dateiübertragung. Das ständige Ein- and Ausstecken bzw. Wechseln der Festplatten in so einer Andockstation sollte man nach Möglichkeit unbedingt vermeiden, da diese Steckkontakte sich mit jedem dieser Vorgänge genauso wie die USB-Schleifkontakte abnutzen, aber ab und zu (alle paar Jahre) sollte man es schon tun, damit die Kontakte leicht durchgeschliffen werden, um wieder besser Strom leiten zu können. Ich habe hier nur beschrieben, was ICH persönlich zurzeit benutze - am Ende muss jeder selbst abwägen und entscheiden, was und wie er etwas benutzen möchte. Auch die Konsequenzen dieser Entscheidungen muss man dann mit „Würde” (er)tragen, sofern sie eines Tages dann tatsächlich auch kommen sollten. Das soll auch keine Werbung für diesen FANTEC sein - ich verkaufe diese Dinger nicht, es gibt außerdem auch andere Andockstationen - muss man halt suchen und ausprobieren, ob es das Richtige für einen ist. Bei Windows 10 sollte man auch die Wirkung des Antivirus-Moduls nicht unterschätzen - um bestimmte Dateien kopieren zu können, muss man das Antivirusprogramm sogar zeitweise für den Kopiervorgang abschalten, sonst verweigert der Computer das Kopieren dieser Dateien, was bei manchen langen Kopiervorgängen sehr ärgerlich sein kann, weil man auf der Zielfestplatte das alles wieder löschen und neu machen muss. Übrigens, irgendwelche HUBs oder sonstige Verteilstationen benutze ich bei solchen Kopiervorgängen nicht - das Zwischenschalten von zusätzlicher Hard- und Software generiert in der Regel nur noch zusätzliche Fehlerquellen - man hat ja schon bei einer Direktverbindung genug mit diversen Problemen zu kämpfen.
    Bilder
    • 1b_min.jpg

      226,36 kB, 780×904, 44 mal angesehen
    • 10.jpg

      449,14 kB, 1.526×1.060, 37 mal angesehen
    • 11.jpg

      419,7 kB, 1.410×1.001, 38 mal angesehen
    Das gleichzeitige Erscheinen von Dummheit und Unmündigkeit nach Immanuel Kant ist eines der schlimmsten Dinge, die einem Homo sapiens in geistiger Hinsicht widerfahren können, hat manchmal aber auch durchaus seine Vorteile.

    Dieser Beitrag wurde bereits 7 mal editiert, zuletzt von „Gregor Jasinski“ ()

    Gregor Jasinski schrieb:

    Wichtige Daten als Backups werden aber auf solchen Sticks nie aufbewahrt, sie dienen nur der Dateiübertragung. Das ständige Ein- and Ausstecken bzw. Wechseln der Festplatten in so einer Andockstation sollte man nach Möglichkeit unbedingt vermeiden.

    Auf eine richtige HD kommt mein Wochenbackup. Meine Tagesbackup-SSD stöpsel ich auch nicht direkt an, die hängt ein einem eigenen Minikabel. USB-C ist einfach zu instabil für ein tägliches An- und Abstöpseln.
    Aktuelles Projekt: Z80 Disassembler für Schneider/Amstrad CPC :love:
    Meine Datensicherung mache ich mit meinem kleinen Tool "WinLibarySaver". Das kopiert / spiegelt mir meine Daten von einer internen SSD auf eine physikalische 2te interne SSD.
    Einmal pro Woche kopiere / zippe ich diese dann auf externe HDDs. Habe gelesen, das diese für eine langfristige Speicherung eben besser sind als SSDs.

    Bzgl der USB-Kabel habe ich auch so einige die besser sind als andere. Z.B. habe ich ein recht dickes USB 3 Kabel was mit SSDs funktioniert, schließe ich aber eine HDD an funktioniert es nicht ?(
    Bei einem anderen wesentlich dünnerem Kabel klappt es mit beiden ( gleicher USB-Port ! ) ... seltsam alles ...

    Oft habe ich den Eindruck, das Win10 so einiges "verbockt" und was ich so lese scheint Win11 noch schlimmer zu sein. Ich frage mich echt oft, warum das Win10/11 so komplett umgestrickt wurde. Win7 war aufgeräumt, lief ( läuft bei mir noch immer ) sehr stabil etc.

    Eine Frage zu CristalDiskInfo:
    Ich habe in meinem DELL PC einen NVME Adapter zu PCIe und darauf eine 128GB M.2SSD. Läuft super schnell nur wird diese von CristalDisk nicht gefunden :?:
    Bilder
    • WinLib-1.jpg

      100,57 kB, 504×378, 43 mal angesehen
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:

    Amelie schrieb:

    Win7 war aufgeräumt, lief ( läuft bei mir noch immer )


    Ich behaupte ein Grund ist Datensammelwut. Deswegen auch all diese Bloatware von MS welche sogar im nachhinein automatisch installiert wird, wenn man das nicht abschaltet.

    Diese Datenerhebung kann zwar dazu eingesetzt werden Windows zu verbessern, aber Windows wird schlimmer(einiges aber auch besser, muss ich gestehen). Allein der austausch des Startmenus macht Win11 für mich default unbrauchbar, gut das man das alte Menu wieder einbauen kann, wenn aber auch blöd zu nutzen ist. Wenn das in Win12 auch so besch******* ist, verabschiede ich mich von MS.
    Zitat von mir 2023:
    Was interessiert mich Rechtschreibung? Der Compiler wird meckern wenn nötig :D

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „DTF“ ()

    @DTF

    Ich habe nun noch gelesen, das man bei den SSDs diesen Windows Schreibcach deaktivieren soll um die Lebensdauer der SSDs zu verlängern?
    Ist da etwas wahres dran? Ich mache keine Gamings am PC, bzgl der Leistungseinbußen.

    Solange mein DELL PC arbeitet werde ich bei Win7 bleiben, Win 10 darauf vernünftig zum laufen zu bekommen ist mir unmöglich. Keine Ahnung warum das sooooo lahm ist. Den Lappy mit Win10 nutze ich zum Testen und für emails, sonst für nix ;)
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:
    Meinst du die Auslagerungsdatei/Virtueller RAM? Hab zwar mehr als genug RAM, aber da hab ich nicht dran rumgestellt, wird bei mir vom System verwaltet. Ich glaube du machst dir unnötig viele Sorgen wegen der SSD. Ich bin überzeugt, meine alte Cruical wird mindestens nochmal so viel schreiben bevor ich überhaupt einen Totalausfall erwarte. Die sind schon recht belastbar.
    Zitat von mir 2023:
    Was interessiert mich Rechtschreibung? Der Compiler wird meckern wenn nötig :D
    @DTF
    Nein eine Auslagerungsdatei habe ich nicht, ist deaktiviert. Bei 16GB-RAM für meine zwecke unnötig.
    Was ich meinte ist: siehe Bild
    Den Schreibcache für die Laufwerke.
    Bilder
    • writecache-1.jpg

      151,37 kB, 414×461, 39 mal angesehen
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:
    Den Schreibcache habe ich immer aus gelassen. Die Gefahr das man das "Sichere Entfernen" mal vergisst ist mir zu groß wegen einem möglichen Datenverlust. Auch an der Auslagerdatei habe ich keine Änderungen seit W10 gemacht und habe es auf "automatisch" stehen. Ich mein selbst bei einer festen Größe nicht wirklich eine Beschleunigung gespürt zu haben. Bei 64GB Speicher hat die 'pagefil.sys' 10GB. Und weitere 27GB werden von der 'hiberfil.sys' belegt. Mindestens seit W7 hat es sich nicht mehr gelohnt an bestimmten Stellen was zu fummeln.
    Aktuelles Projekt: Z80 Disassembler für Schneider/Amstrad CPC :love:
    @oobdoo
    Den Schreibcache habe ich nur für die internen SSDs abgestellt.
    Die hyberfile.sys finde ich für mich überflüssig, also abgestellt. Ich schalte den PC abends aus und morgens wieder an. Das booten mit meinem betagten Dell i3 und Win7/64 dauert keine 10 Sekunden. Schaffe es nicht mal in der Zeit den Kaffee aufzusetzen. :D :D
    Die pagefile.sys, warum anlassen und "unnötige" Schreibvorgänge auf der SSD machen wenn genügend RAM vorhanden ist :?:
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:
    @oobdoo
    Ich habe nun gelesen das auch wenn die pagefile.sys deaktiviert wurde, Windows trotzdem irgendwo im System einen weiteren virtuellen Speicher anlegt und dorthin auslagert.
    Habe nun mal den RescourcenMonitor aufgerufen und siehe da... ?(

    Tja da scheint Windows wohl ein Eigenleben zu führen :?:
    Bilder
    • res-1.jpg

      491,32 kB, 1.063×729, 28 mal angesehen
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:
    Ich bin eventuell etwas spät dran, aber das könnte natürlich sein, dass deine Windows 7-Installation nicht mit GPT-Partitionstabellen klarkommt.
    Das würde erklären, weshalb er den Stick neu formattieren möchte. Er kann die Partitionstabelle nicht auslesen und sagt dann "hmpf. Muss wohl nicht initialisiert sein".

    Wenn du DiskPart öffnest, kannst du das relativ schnell sehen:

    Brainfuck-Quellcode

    1. Microsoft DiskPart version 10.0.22621.1
    2. Copyright (C) Microsoft Corporation.
    3. On computer: ODIN
    4. DISKPART> list disk
    5. Disk ### Status Size Free Dyn Gpt
    6. -------- ------------- ------- ------- --- ---
    7. Disk 0 Online 223 GB 0 B *
    8. Disk 1 Online 1863 GB 100 GB * *
    9. Disk 2 Online 931 GB 2048 KB *
    10. Disk 3 Online 931 GB 0 B *
    11. Disk 4 Online 931 GB 0 B *
    12. Disk 5 Online 931 GB 1024 KB *
    13. Disk 6 Online 3726 GB 1024 KB *
    14. Disk 7 Online 117 GB 0 B
    15. DISKPART>


    Alles mit Sternchen ist mit GPT-Partitionstabelle. Disk 7 ist ein USB-Stick was ich mal auf meinem MacBook vorbereitet habe und da sagt auch Windows 11:



    Auch wenn er beides lesen und beschreiben kann, sollte man noch erwähnen.
    Eines der klassichen Gotchas, wenn Microsoft etwas implementiert, im Userbereich.
    Quellcode lizensiert unter CC by SA 2.0 (Creative Commons Share-Alike)

    Meine Firma: Procyon Systems
    Meine Privatwebseite: SimonC.eu

    Bitte nicht wundern, wenn meine Aktivitäten im Forum etwas langsamer sind, ich baue gerade mein Nebengewerbe zum Vollgewerbe aus.
    Ich versuche auf euch zurückzukommen :)

    oobdoo schrieb:

    und trotzdem kenne ich das Problem.


    Das oben war lediglich ein Beispiel. Natürlich kann es auch unter Windows-Geräten passieren. Es gibt keine zwei gleichen Windows-Installationen. Jeder Rechner hat andere Treiber, andere Software, andere Konfigurationen, etc.
    Tut auch gar nichts zum Thema, mit welchem Betriebssystem formattiert wurde. Ich kann hier auch nur Erfahrungen teilen, die mich in der Vergangenheit an den Rand der Verzweiflung gebracht haben, weil N/X Rechner einen Stick mochten und wenige Ausnahmen das nicht konnten.

    Per Ferndiagnose mit limitierten Infos sind solche Probleme generell schwer zu beheben.
    Quellcode lizensiert unter CC by SA 2.0 (Creative Commons Share-Alike)

    Meine Firma: Procyon Systems
    Meine Privatwebseite: SimonC.eu

    Bitte nicht wundern, wenn meine Aktivitäten im Forum etwas langsamer sind, ich baue gerade mein Nebengewerbe zum Vollgewerbe aus.
    Ich versuche auf euch zurückzukommen :)

    Amelie schrieb:

    (...) Ich habe nun noch gelesen, das man bei den SSDs diesen Windows Schreibcach deaktivieren soll um die Lebensdauer der SSDs zu verlängern? (...)

    Windows hat die dumme Angewohnheit, immer etwas lesen und auch schreiben zu müssen (wenn auch nur ganz kleine Datensätze mit Überschreibungen), auch dann, wenn nicht wirklich etwas für den Anwender sichtbar auf dem PC passiert - es sind einfach auch zu viele Dienste im Hintergrund am laufen, als dass man alles, was unnötige Schreibzugriffe macht, unterbinden könnte, und manche Datensätze müssen so oder so in den nichtflüchtigen Speicher geschrieben werden, damit der PC sich im Falle einer Stromunterbrechung oder eines harten Abschaltens mit Knopf oder Resets aus Versehen oder Verzweiflung wieder ordnen kann und starten kann. Für die SSD und Stick-Laufwerke werden intern verschiedene Strategien und Algorithmen in Angriff genommen und angewendet (die meisten sind dumm wie Brot), um nicht immer an der gleichen Stelle im Flash zu schreiben, sondern das alles auf die gesamte Speicherfläche gleichmäßig zu verteilen, um die Lebensdauer eines solchen Flashs zu verlängern. Leider ist das Schreiben eines einzigen Bytes beim NOR- oder NAND-Flash nicht so trivial, da der Speicher in Pages (256 Bytes), Sektoren (z.B. 4KB) und Blöcke (64KB und größer) unterteilt ist und um ein einziges Bytes zu ändern, muss man mindestens so eine Page, einen Sektor oder Block erstmal kopieren, dann den Flash an dieser Stelle löschen, um den gleichen Speicherplatz anschließend mit dem (in diesem Beispiel nur um ein Byte) modifizierten Inhalt wieder zu beschreiben. Je schneller die Speicher beschrieben werden können (der Markt verlangt eine hohe Datenrate), desto aggressiver meistens auch die Art und Weise Daten zu flashen, was die Lebensdauer zusätzlich verkürzt, wenn es nicht durch übliche Parallelprozesse bewerkstelligt wird, weil es dann zu teuer in der Herstellung oder wegen Platzmangel auf dem Die unmöglich wird. Die Flashspeicher werden zwischen 100.000 und 1 Million Schreibzugriffen pro (solche) Zelle spezifiziert, außerdem ist man irgendwann mal auf die Idee gekommen, aus einem Bit pro Gate eines MOSFETs schon mal zwei oder vier Bits „herauszuquetschen”, indem man die Spannung dort nicht nur in 0 und 1 - also nur zwei Zuständen - unterscheidet, sondern dann in vielen Abstufungen - 4 oder 16 Spannungspegeln. Eine langsam abfließende Ladung wird bei einem solchen abgestuften Speichern von Information schneller oder einfach früher einen falschen Pegel erreichen als es in einer normalen Zelle mit nur zwei Zuständen der Fall wäre. Man kann damit aber die Speichergröße verdoppeln und vervierfachen - der Markt will es so, die Leute kaufen es. Wie auch immer - früher oder später wird man ein böses Erwachen erleiden, wenn man keine Backups macht, aber auch ein Datenverlust von nur einem Tag oder einer Woche kann bei einer Firma zu einem kleinen Desaster führen; trotz regelmäßiger Backups. Eine normale, konventionelle Festplatte auf magnetischer Basis kann selbstverständlich auch mal kaputtgehen - für mich persönlich ist das Risiko hier aber immer noch geringer als bei SSDs. FRAM (ferroelektrischer Effekt) wäre hier eine super Sache, die Endurance wird bei diesen Speichern teilweise mit 10 hoch 14 Schreibzugriffen angegeben (eine unglaublich große Zahl), ist aber alles noch zu teuer und so schnell wird man diese Speicherdichte hier nicht erreichen, vielleicht sogar gar nicht für so etwas wie SSD eines PCs.
    Das gleichzeitige Erscheinen von Dummheit und Unmündigkeit nach Immanuel Kant ist eines der schlimmsten Dinge, die einem Homo sapiens in geistiger Hinsicht widerfahren können, hat manchmal aber auch durchaus seine Vorteile.

    Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von „Gregor Jasinski“ ()

    @siycah
    Doch GPT kann mein Win7. Habe ja HDDs die so eingerichtet sind. :thumbup:

    @ ALL
    Ich habe mir mal das Tool Disk Pulse Pro installiert.
    Dann den PC neu gestartet, das Monitoring aktiviert und den PC 45 Minuten einfach gelassen ohne etwas zu machen oder ein weiteres Programm zu starten.
    Erschreckend, was da im Hintergrund überall geschrieben wird ?(
    Lässt man dann noch die Browser FireFox und Crome laufen (google startseite) Huihuihui .... :S

    Da werden lustig Files erstellt, geändert, gelöscht und wieder neu erstellt ... :S
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:
    Wer weiß was die Programmierer alles an Debug-Ausgaben vergessen haben als sie das Release erstellt hatten.
    Mein aktuelles Test-Projekt erzeugt bei 126kb Größe >100MB an Logfiles. Das sieht nach viel aus, hat aber auch
    schon viel Zeit beim Debugging gespart.
    Aktuelles Projekt: Z80 Disassembler für Schneider/Amstrad CPC :love:
    @oobdoo

    Das erschreckende ist, selbst wenn kein Programm läuft und ich den PC einfach in Ruhe lasse, beginnt Windows wild auf den Platten zu schreiben zu lesen usw...

    Naja, keiner weiß so genau was die Hersteller der Betriebssysteme da an Daten sammeln etc. Müssen wird wohl so hinnehmen.


    PS: Pagefile.sys
    Ich habe mal eine alte 16-GB SSD eingebaut und diese als pagefile.sys eingestellt. Bei meinen arbeiten mit VisualStudio und gleichzeitig Photoshop und MS-Office und Chrome und Firefox konnte ich nicht spüren das die Programme / die Arbeit schneller erledigt wurde.
    Ob die pagefile.sys nun sinnvoll ist oder nicht; ist keine vorhanden schreibt zumindest Windows 7 irgendwo auf der Systemplatte lustig rum.

    Was mich echt interessieren würde, wie bekomme ich meinen Lappy Core i7 mit 12GB-RAM und einer M.2-SSD mit Windows 10 flott. Wenn ich z.B. VisualStudio 2017 starte, dauert es fast 20 Sekunden bis ich mal beginnen kann. Das zeigt sich aber bei jedem Programm. Irgendwas bremst hier alles aus.
    Asperger Autistin. Brauche immer etwas um gewisse Sachen zu verstehen. :huh:

    Amelie schrieb:

    (...) Was mich echt interessieren würde, wie bekomme ich meinen Lappy Core i7 mit 12GB-RAM und einer M.2-SSD mit Windows 10 flott (...)


    Richtig viel schneller wird es vermutlich nicht mehr – liegt höchstwahrscheinlich einfach an der Hardware des Rechners selbst und/oder dem bereits stark vermüllten Windowsbetriebssystem, wenn hier seit Jahren nichts Adäquates passiert ist. Man kann ein wenig auf gewisse Dinge achten und so die Preformance optimieren, aber über seinen Schatten springen wird der Rechner nicht mehr können – das kann ich Dir aus eigener Erfahrung mit ähnlichen Rechnern sagen. Hier ein paar Dinge zum Beachten oder einfach als Inspiration für die eigene Vorgehensweise:

    – automatische Defragmentierung der Festplatte, die dann hin und wider im Hintergrund von selbst läuft, abschalten und dann regelmäßig (alle paar Wochen) selbst nachschauen und ggfs. diese Platten dann defragmentieren lassen (wenn bereits wieder über 3% fragmentiert worden ist) => so hat man den Zeitpunkt und deswegen verursachten Leistungsverlust zumindest unter Kontrolle
    – Cookies, besuchte Webseiten, Downloads in gewissen Abständen löschen
    – mit der Leistungseinstellung des Rechners und des Prozessor selbst in Windows-Energieeinstellungen ein wenig spielen und versuchen, die optimale Einstellung für den „Opa” zu finden (es kann aber auch sein, dass das bereits Eingestellte schon maximal optimal war, also gewisse Dinge notieren)
    – Mülleimer regelmäßig leeren (Papierkorb für Dateien ist gemeint)
    – Antivirussoftware, die die Festplatten und jedes Programm vor dem Ausführen in Echtzeit durchforsten bzw. überprüfen, abschalten und nur die Firewall aktiv lassen => diesen Schritt kann ich aber keinem unerfahrenen Windowsnutzer empfehlen, weil es u.U. auch mit Gefahren verbunden ist und das Antivirusprogramm von Windows 10 so ohne Weiteres nicht abgeschaltet werden kann (schaltet sich nach einer gewissen Zeit wieder automatisch ein, für eine dauerhafte Abschaltung und Überlistung des Systems muss man schon etwas tiefer in die Trickkiste greifen), hat mir aber am meisten zusätzliche Prozessorleistung gebracht
    – irgendwelche, vermeintliche SuperDuperProgramme, die den PC aufräumen, optimieren und was weiß ich, was die noch für Wunder tun sollen, von vornherein am besten gleich alle schnell vergessen, weil man sich hier mit hoher Wahrscheinlichkeit nebenbei nur Schadsoftware installieren wird => lahmt der Computer gewaltig und das System läuft seit geräumer Zeit schon, dann Daten sichern und ernsthaft eine Neuinstallation von Windows 10 in Erwägung ziehen – der Windowskey wird glaube ich im Flash des Setups abgelegt, so dass das später keine Aktivierungsprobleme verursacht (zumindest gab es in den letzten Jahren bei mir keine Probleme damit – nach der Neuinstallation war der Schlüssel dann automatisch wiedergefunden und Windows 10 hat sich wieder selbst aktiviert)
    – wenn alles trotzdem weiter mächtig nervt und lahmt, dann einen Neukauf erwägen – es muss nichts Besonderes sein, wenn man kein 'Gamer' ist, ein ordentlicher, neuer Bürorechner mit mindestens 4 oder 6 Kernen und moderner Peripherieumgebung, der als Neuinstallation läuft, wird vermutlich besser als alles andere hier vorgeschlagene sein
    – auch mal abwägen, ob statt eines Laptops ev. ein Desktoprechner in Frage käme, da sich hier in der Regel die Komponenten weniger so stark wie in einem Laptop erhitzen, was unweigerlich immer zu einer temporären Leistungsdrosselung führt, um Schlimmeres zu verhindern

    Vielleicht habe ich in der Aufzählung etwas vergessen – beim Stegreifschreiben kann das schon mal passieren.
    Das gleichzeitige Erscheinen von Dummheit und Unmündigkeit nach Immanuel Kant ist eines der schlimmsten Dinge, die einem Homo sapiens in geistiger Hinsicht widerfahren können, hat manchmal aber auch durchaus seine Vorteile.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „Gregor Jasinski“ ()

    Wenn dein Laptop d.M.n. nicht genug Leistung liefert, bringt womöglich alles nichts. Wenn du Win7 drauf hattest und das schneller lief, würde mich das nicht wundern. Wie viele Prozesse hatte die CPU da zu verarbeiten gehabt? Wie viele sind es mit Win10? Da ist halt viel mehr zu tun, was sich bei alten CPUs bemerkbar machen kann. Laptops liefern nicht alle eine gute Performence, nur die, die halbwegs aktuell sind.

    Da wir gerade beim RAM sind, was hast du genau für RAM verbaut? (kannst du mit CPU-Z auslesen)
    Sind die unterschiedlich schnell? Ich frage weil du vermutlich 8+4 hast, habs schon erlebt das jemand alten RAM in einen neuen PC reingemacht hat, weil nur 1 von 2 Slots belegt war, aber der jenige nicht wusste das dann der neue schnellere RAM auf die Geschwindigkeit des alten langsamen getaktet wird.

    Ich habe mal eben geschaut(mit VS 2022 CE), auf einen Laptop I3 7100U(Win10) 16GB DDR4, bei einem mittelgrossen Projekt komm ich auch auf 20+ Sekunden beim startup. Hab eben auch einen Desktop mit i5 4590(Win11) und 16GB DRR3 hochgefahren, da geht es in unter 10 Sekunden. Da bringt der alte Desktop eine bessere Performence.(wobei die 100er sind von jeder Generation lam, sollte man schon mindestens einen 400er nehmen)

    Wenn du mehr Power willst, brauchst du aktuelle Hardware. Wobei ich der Meinung bin, das 20 Sekunden nicht die Welt sind, das ist durchaus noch akzeptabel wenn VS dann flüssig läuft. Ich an deiner Stelle würde nur noch wegen des RAMs schauen und das dann so hinnehmen wie es ist. Du ärgerst dich nur und vergeudest Zeit in der du produktiv hättest sein können.

    Und nebenbei, warum nutzt du immer noch ein altes Studio? VS2022 CE ist Top! Allein durch die Autovervollständigung machst du da die verlorenen 20 Sekunden vom startup wieder wett.(weis nicht ob die in VB auch so gut ist, sollte aber IMO)
    Zitat von mir 2023:
    Was interessiert mich Rechtschreibung? Der Compiler wird meckern wenn nötig :D

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von „DTF“ ()