Ich habe das schon öfter beobachtet, und wollte mal wissen, ob ich mit meiner Annahme richtig liege.
Gerade habe ich mit Blender Loop Tools eine größere Fläche geflattet.
Erst hat es einige Zeit gedauert, bis die Maus busy angezeigt wurde, dann hat die
Berechnung auch noch sehr lange gedauert.
Darum hatte ich mal gemütlich Zeit, um im Taskmanager danach zu schauen.
Die 6/12 Prozessoren waren gerade mal zu 12 % am Arbeiten, bei 3.3GHz
Der Arbeitsspeicher zeigte 16 GB von noch verfügbaren 46 GB an.
Könnte man sagen, dass ich mit 4 GHz statt 300 sec vielleicht 248 sec benötigt hätte,
dass die Prozessoren dann halt nur zu 9% ausgelastet gewesen wären?
Liegt das nun am Programmieren, oder am Compiler, dass nicht mehr von der
Rechenpower verwendet wird?
Wenn ich da an VB denke... dort habe ich ja wohl nur die Möglichkeit eine
Berechnung auf mehrere Threads aufzuteilen. Was vielleicht auch von der Mathematik nicht immer
möglich ist.
Ist der Compiler in der Lage, bzw. verteilt der selbstständig die Arbeit auf die unterschiedlichen CPUs?
Gerade habe ich mit Blender Loop Tools eine größere Fläche geflattet.
Erst hat es einige Zeit gedauert, bis die Maus busy angezeigt wurde, dann hat die
Berechnung auch noch sehr lange gedauert.
Darum hatte ich mal gemütlich Zeit, um im Taskmanager danach zu schauen.
Die 6/12 Prozessoren waren gerade mal zu 12 % am Arbeiten, bei 3.3GHz
Der Arbeitsspeicher zeigte 16 GB von noch verfügbaren 46 GB an.
Könnte man sagen, dass ich mit 4 GHz statt 300 sec vielleicht 248 sec benötigt hätte,
dass die Prozessoren dann halt nur zu 9% ausgelastet gewesen wären?
Liegt das nun am Programmieren, oder am Compiler, dass nicht mehr von der
Rechenpower verwendet wird?
Wenn ich da an VB denke... dort habe ich ja wohl nur die Möglichkeit eine
Berechnung auf mehrere Threads aufzuteilen. Was vielleicht auch von der Mathematik nicht immer
möglich ist.
Ist der Compiler in der Lage, bzw. verteilt der selbstständig die Arbeit auf die unterschiedlichen CPUs?