Hey Leute,
habe mal wieder meine IDE ausgegraben und eine kleine Lottosimulation geschrieben. Möchte damit Menschen zeigen, wie lange es dauert 6 Richtige bzw 6 Richtige + Superzahl zu bekommen.
Realisiert ist dies mit ein paar Funktionen bzw. einer Do Loop Schleife, welche Zahlen generiert und prüft, dass diese nicht doppelt sind. Im Endeffekt wird mit jedem Durchgang der Do Loop eine
Ziehung simuliert. Jedoch möchte ich die Simulation irgendwie beschleunigen.
Alle 1,5sec schafft das Programm ca 1 Jahr an Ziehungen zu Simulieren. (52 Wochen â 2 Ziehungen).
Begrenzt die Do Loop meine CPU? Oder gibt es da Kniffe (Multithreading o.Ä.), welche mir das alles Beschleunigen.
(Ich muss ja irgendwie auf über 140 Millionen Ziehungen kommen :P)
LG
habe mal wieder meine IDE ausgegraben und eine kleine Lottosimulation geschrieben. Möchte damit Menschen zeigen, wie lange es dauert 6 Richtige bzw 6 Richtige + Superzahl zu bekommen.
Realisiert ist dies mit ein paar Funktionen bzw. einer Do Loop Schleife, welche Zahlen generiert und prüft, dass diese nicht doppelt sind. Im Endeffekt wird mit jedem Durchgang der Do Loop eine
Ziehung simuliert. Jedoch möchte ich die Simulation irgendwie beschleunigen.
Alle 1,5sec schafft das Programm ca 1 Jahr an Ziehungen zu Simulieren. (52 Wochen â 2 Ziehungen).
Begrenzt die Do Loop meine CPU? Oder gibt es da Kniffe (Multithreading o.Ä.), welche mir das alles Beschleunigen.
(Ich muss ja irgendwie auf über 140 Millionen Ziehungen kommen :P)
LG