Nazwa w katalogu Spacetrack | FLOCK 3R 6 |
Wyniesienie na orbitę | 2018-11-29 |
Data deorbitacji | 2022-11-08 |
Dni na orbicie | 1440 |
Kraj/organizacja pochodzenia | USA (US) |
Miejsce startu | SRILR (Satish Dhawan Space Centre, India) |
WWW | Tutaj |
Kategorie | |
Perygeum | 464 km/h |
Apogeum | 488 km |
Wysokość FLOCK 3R 6 | 436.1 km |
W naukach obliczeniowych, optymalizacja rojem cząstek (PSO) jest metodą obliczeniową, która optymalizuje problem poprzez iteracyjne próby poprawy kandydackiego rozwiązania w odniesieniu do danej miary jakości. Rozwiązuje ona problem poprzez posiadanie populacji kandydatów na rozwiązanie, zwanych tutaj cząstkami, i poruszanie się tych cząstek w przestrzeni wyszukiwania zgodnie z prostymi wzorami matematycznymi nad pozycją i prędkością cząstki. Każdy ruch cząstki jest pod wpływem jej lokalnej najlepszej znanej pozycji, ale jest również prowadzony w kierunku najlepszych znanych pozycji w przestrzeni wyszukiwania, które są aktualizowane jako lepsze pozycje są znalezione przez inne cząstki. Oczekuje się, że w ten sposób rój będzie zmierzał w kierunku najlepszych rozwiązań.
PSO jest pierwotnie przypisywane Kennedyemu, Eberhartowi i Shi i było początkowo przeznaczone do symulacji zachowań społecznych, jako stylizowane odwzorowanie ruchu organizmów w stadzie ptaków lub ławicy ryb. Algorytm został uproszczony i zaobserwowano, że wykonuje on optymalizację. Książka Kennedyego i Eberharta opisuje wiele filozoficznych aspektów PSO i inteligencji roju. Obszernego przeglądu zastosowań PSO dokonał Poli. Ostatnio obszerny przegląd teoretycznych i eksperymentalnych prac nad PSO opublikowali Bonyadi i Michalewicz.PSO jest metaheurystyką, ponieważ przyjmuje niewiele lub nie przyjmuje żadnych założeń dotyczących optymalizowanego problemu i może przeszukiwać bardzo duże przestrzenie rozwiązań kandydujących. Jednak metaheurystyki takie jak PSO nie gwarantują, że optymalne rozwiązanie zostanie kiedykolwiek znalezione. PSO nie wykorzystuje również gradientu optymalizowanego problemu, co oznacza, że PSO nie wymaga, aby problem optymalizacyjny był różniczkowalny, co jest wymagane przez klasyczne metody optymalizacji, takie jak gradient descent i metody quasi-newtonowskie.