Skip to content
Snippets Groups Projects
Commit dd98f772 authored by Hannah Freudenberger's avatar Hannah Freudenberger
Browse files

Update README.md

parent 6bac85fc
No related branches found
No related tags found
No related merge requests found
Discrete Particle Swarm Optimization auf das TSP angewendet. Probleminstanzen aus der TSPLib.
## Discrete Particle Swarm Optimization auf das TSP angewendet:
Probleminstanzen aus der TSPLib liegen in [diesem Ordner](https://git.fslab.de/hfreud2s/pso/-/tree/master/json/tsplib).
Zum Testen wurde die [main - Klasse](https://git.fslab.de/hfreud2s/pso/-/blob/master/main.py) mit Default-Werten belegt. Hier kann man die Probleminstanz ändern (Default: burma14), die Populationsgröße (Default: 20), den verwendeten Algorithmus (Default: PSO) und die Anzahl der Iterationen ohne Verbesserung, nach der abgebrochen werden soll (Default: 15). Das Selbe kann man in der Klasse [Laufzeitmessung](https://git.fslab.de/hfreud2s/pso/-/blob/master/laufzeitmessung.py) machen. Dort erhält man aber keine direkte Ausgabe, stattdessen werden die Ergebnisse in einer Datei im Ordner [Laufzeitmessungen](https://git.fslab.de/hfreud2s/pso/-/tree/master/Laufzeitmessungen) gespeichert.
Außerdem existiert eine Klasse zur [Visualisierung](https://git.fslab.de/hfreud2s/pso/-/blob/master/Visualization.py). Dort kann man das Verhalten des globalen Attraktors über einen Algorithmus-Durchlauf verfolgen.
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment