НОВЕ НА САЙТІ


16.12.24:::На сайті на сторінці АКІОЦ "Річні звіти" розміщений річний звіт АКІОЦ за 2024 рік.


01.02.24:::Якщо вам потрібна сторінка сайту, якої немає в поточному перегляді, ви можете або скористатися пошуком по сайту або переглянути сторінки архіву сайту, куди переносяться всі матеріали, що були раніше опубліковані і в яких закінчився термін публікації.


05.10.23:::На сайті в розділі "Адміністративні відділи" розміщений ПЛАН підготовки господарства Головної астрономічної обсерваторії НАН України до опалювального сезону 2023-2024 рр..


04.04.23:::На сайті в розділі "Адміністративні відділи" розміщений НАКАЗ від 03.04.2023 №7-ОД "Про прийняте рішення щодо наміру передачі майна в оренду".


COORDINATES

Latitude N50 21.9
Longitude E30 30.4
Altitude 188 m above s. l.

YOUTUBE CHANNELS

Запис трансляції з ГАО НАНУ проходження Меркурія по диску Сонця 11.11.2019

Ютуб-канал
«Все про Всесвіт»

  • Voitko A., Kleshchonok V., Shubina O.S., et al.Photometric study of eight distant comets. 2025,MNRAS,Vol.538,is.3,p.1609-1627. 2025MNRAS.538.1609V
  • Karachentsev I.D., Karachentseva V.E., Vladimirova K., et al.More Local Volume dwarf galaxy candidates. 2025,Publications of the Astronomical Society of Australia (PASA),Vol.42,article id. eo26. 2025PASA...42...26K
  • Pérez-Díaz B., Pérez-Montero E., Zinchenko I.A., et al.Chemical enrichment in LINERs from MaNGA: I. Tracing the nuclear abundances of oxygen and nitrogen in LINERs with varied ionizing sources. 2025,A&A,Vol.694,p.A18 (23 pp.). 2025A&A...694A..18P
  • Pilyugin L.S., Lara-Lopez M. A., Tautvaišienė G., et al.Metal-THINGS: The Milky Way twin candidate NGC 3521. 2025,A&A,Vol.694,p.A113 (15 pp.). 2025A&A...694A.113P
  • Yushchenko V.A., Gopka V., Yushchenko A.V., et al.Evaluating Promethium Abundance in the Atmospheres of Magnetically Peculiar Star HD 25 354. 2025,Kinematics Phys. Celest. Bodies.- New York: Allerton Press,Vol.41,is.1,p.26-33. 2025KPCB...41...26Y
  • Ishchenko M.V., Masliukh V., Hradov M., et al.Dynamical evolution of the open clusters with different star formation efficiencies and orbital parameters. 2025,A&A,Vol.694A,р.33 (13 рр.). 2025A&A...694A..33I

 

 

ПОСИЛАННЯ


::: ADS Bibliographic Codes:" Journal Abbreviations

::: ADS Tagged Format for :" Bibliographic Data Transfer

::: Англомовне видання "Кінематики і фізики небесних тіл" на сайті видавництва ALLERTON PRESS


Login Form

Астропортал

Астрономічна наука в Україні і світі, останні події в космонавтиці, найновіші космічні місії, історія астрономії та ще багато цікавого на сторінках "Українського Астрономічного Порталу"

Random photo

gao_panorama_1.jpg

Лабораторія обчислювальної астрофізики

В Головній астрономічній обсерваторії у 2007 році при прямій фінансовій підтримці Національної академії наук України було введено в експлуатацію високопродуктивний обчислювальний GRID/GPU кластер. На даний час вже проведено поетапну модернізацію кластера.

Початкові (первісні) карти-прискорювачі замінено на більш сучасні графічні прискорювачі GeForce GTX 660, що дозволило підвищити продуктивність моделювання астрофізичних задач до приблизно 11 Tflops.

Кластер є гетерогенним і складається з керуючого вузла, та 3+8 обчислювальних вузлів (2 х Intel Xeon E5410, 2.33GHz, 16 GB RAM та 2 х Intel Xeon E5420, 2.50 GHz, 32 GB RAM, 2 х GPU GeForce GTX 660, відповідно). Для комунікації використовується мережа на базі Gigabit ethernet. Загальна кількість обчислювальних ядер складає 88. Система збереження даних складеться з дискового масиву об’ємом 5 ТB.

Кластер ГАО також є частиною Українського академічного GRID-сегменту. На кластері встановлено GRID middleware Nordugrid ARC 5.0.3. Виконувати свої задачі на кластері ГАО мають можливість учасники віртуальних організацій:

  • multiscale;
  • sysbio;
  • moldyngrid;
  • virgo_ua.

Для забезпечення ефективної роботи кластера у GRID-середовищі встановлено runtime-environment для підтримки віртуальних організацій moldyngrid і virgo_ua:

  • GROMACS-4.5.5;
  • PHI-GPU;
  • VIRGO/COSMOMC;
  • VIRGO/GADGET;
  • VIRGO/FERMI;
  • VIRGO/XMM.




На сьогодні на кластері виконуються наступні астрофізичні завдання:

  • Пряме моделювання центральних областей галактик з урахуванням динаміки центральних надмасивних чорних дір.
  • Динамічне моделювання стійкості та хімічної еволюції галактичного диска і зоряних систем в диску галактик.
  • Динамічна еволюція стійкості локального обсягу Всесвіту.

 


СПІВРОБІТНИКИ ЛАБОРАТОРІЇ

Берцик Петер Петерович зав.лаб., с.н.с. д.ф.-м.н. berczik(at)mao.kiev.ua кімн. 210,тел. 8-00
Іванов Даніїл Дмитрович технік I кат.   ivanovdd(at)mao.kiev.ua кімн. 117,тел. 7-00
Соболенко Маргарита Олександрівна інж. І кат.   sobolenko(at)mao.kiev.ua кімн. 114, тел. 5-93

 


 

Моніторинг кластера:

http://golowood.mao.kiev.ua/ganglia/

 

Моніторинг ресурсів Українського академічного GRID-сегменту:

http://gridmon.bitp.kiev.ua/

http://www.nordugrid.org/monitor/loadmon.php


Інструкція з запуску завдань на кластері ГАО

Для того, щоб поставити задачу на виконання, потрібно підготувати скрипт запуску, або зробити це в інтерактивному режимі. Задача компілюється, потім ставиться в чергу за допомогою програми qsub (man qsub).

 

Приклади запуску серійної задачі:

a)

~$ echo "sleep 1m" | qsub

b) за допомогою сценарію:
створюється скрипт запуску задачі run.sh:

~$ cat run.sh
#PBS -k oe
#PBS -m abe
#PBS -N run
#!/bin/sh
cd $PBS_O_WORKDIR
export PATH=$PATH:$PBS_O_WORKDIR
sleep 1m
exit 0
~$

Запуск скрипта:

~$ qsub -V run.sh

(обов'язково потрібно вказати опцію -V).

Для компіляції та запуску паралельних задач на кластері можна використовувати компілятори GNU або Intel. Вибір компілятора здійснюється за допомогою команд mpi-selector та mpi-selector-menu.

Переглянути список доступних реалізацій MPI можна за допомогою команди:

~$ mpi-selector --list
openmpi-1.4.3
openmpi-1.4.3-intel
~$

На даний час встановлено дві реалізації OpenMPI: openmpi-1.4.3 (GNU) і openmpi-1.4.3-intel (Intel).

Дізнатись, яку реалізацію MPI ви використовуєте, можна за допомогою команди:

~$ mpi-selector --query
default:openmpi-1.4.3
level:user
~$

Змінити реалізацію MPI можна за допомогою команди:

~$ mpi-selector-menu
Current system default: openmpi-1.4.3
Current user default: openmpi-1.4.3

  "u" and "s" modifiers can be added to numeric and "U"
  commands to specify "user" or "system-wide".

1. openmpi-1.4.3
2. openmpi-1.4.3-intel
U. Unset default
Q. Quit

Selection (1-2[us], U[us], Q): 1u
Defaults already exist; overwrite them? (Y/N) y


Current system default: openmpi-1.4.3
Current user default: openmpi-1.4.3

  "u" and "s" modifiers can be added to numeric and "U"
  commands to specify "user" or "system-wide".

1. openmpi-1.4.3
2. openmpi-1.4.3-intel
U. Unset default
Q. Quit

Selection (1-2[us], U[us], Q): Q
~$

mpi-selector-menu змінює системні змінні PATH та MANPATH лише при наступному вході користувача у shell. Тому після виконання команди mpi-selector-menu необхідно виконати команду bash -l чи відкрити новий shell.

 

Приклад запуску паралельних програм:

Компілюється програма, написана з використанням MPI-бібліотеки:

якщо це C-програма:

~$ mpicc -o your_program.exe your_program.c -lm

якщо це програма на Fortran-і:

~$ mpif77 -o your_program.exe your_program.f -lm

Створюється скрипт запуску задачі run-mpi.sh:

~$ cat run-mpi.sh
#PBS -N run-mpi
#PBS -k oe
#PBS -m abe
#PBS -l nodes=8
#!/bin/sh
  cd $PBS_O_WORKDIR
  export PATH=$PATH:$PBS_O_WORKDIR
  mpiexec -n 8 ./your_program.exe
  exit 0
~$

Задати чергу, у яку буде запущена задача, можна шляхом додавання у скрипт рядка:

#PBS -q cpu_8x6

Черга cpu_8x6 призначена для запуску CPU-задач, черги gpu_1 і gpu_2 − для запуску GPU-задач.

Запуск скрипта:

~$ qsub -V run-mpi.sh

(обов'язково потрібно вказати опцію -V).

В даному випадку задачу запущено на 8 CPU, це вказується в параметрі -n 8 програми mpiexec та параметрі #PBS -l nodes=8.

Більш докладно про описані опції і програми − man qsub, man mpiexec.

Опції в скрипті PBS:

-k: зберегти стандартне виведення (stdout) та стандартне виведення помилок (stderr).

-m: послати e-mail повідомлення у разі, якщо задача знята batch-системою, коли задача почала виконуватись та коли виконалась.

-N: назва задачі в системі batch.

Подивитись на стан черги та чи запущена задача на виконання можна за допомогою команди:

~$ qstat

(більш докладно − man qstat).