Discrete Particle Swarm Optimization auf das TSP angewendet. Probleminstanzen aus der TSPLib.
## Discrete Particle Swarm Optimization auf das TSP angewendet:
Probleminstanzen aus der TSPLib liegen in [diesem Ordner](https://git.fslab.de/hfreud2s/pso/-/tree/master/json/tsplib).
Zum Testen wurde die [main - Klasse](https://git.fslab.de/hfreud2s/pso/-/blob/master/main.py) mit Default-Werten belegt. Hier kann man die Probleminstanz ändern (Default: burma14), die Populationsgröße (Default: 20), den verwendeten Algorithmus (Default: PSO) und die Anzahl der Iterationen ohne Verbesserung, nach der abgebrochen werden soll (Default: 15). Das Selbe kann man in der Klasse [Laufzeitmessung](https://git.fslab.de/hfreud2s/pso/-/blob/master/laufzeitmessung.py) machen. Dort erhält man aber keine direkte Ausgabe, stattdessen werden die Ergebnisse in einer Datei im Ordner [Laufzeitmessungen](https://git.fslab.de/hfreud2s/pso/-/tree/master/Laufzeitmessungen) gespeichert.
Außerdem existiert eine Klasse zur [Visualisierung](https://git.fslab.de/hfreud2s/pso/-/blob/master/Visualization.py). Dort kann man das Verhalten des globalen Attraktors über einen Algorithmus-Durchlauf verfolgen.