SCIENCE BRINGS NATIONS TOGETHER
The 6th International Conference "Distributed Computing and Grid-technologies in Science and Education"

Europe/Moscow
LIT JINR

LIT JINR

Russia, 141980 Moscow region, Dubna, JINR
Description

Welcome to GRID'2014!



The 6th International Conference "Distributed Computing and Grid-technologies in Science and Education" will be held at the Laboratory of Information Technologies (LIT) of the Joint Institute for Nuclear Research (JINR) on 30 June - 5 July 2014 in Dubna. 

Dubna is a small quiet town located 130 km north from Moscow on the picturesque banks of the Volga River. There is a convenient railway and bus communication from Moscow to Dubna. 

The 5th conference on this topic took place at the Laboratory of information technologies, JINR in June, 2012 (http://grid2012.jinr.ru/). The Conference Proceedings are available both as hard copies and on-line(“Distributed Computing and Grid-technologies in Science and Education”, Dubna, JINR, 2012. 419 p. ISBN 978-5-9530-0345-2, http://grid2012.jinr.ru/docs/grid2012.pdf). 


This is a unique Conference, held in Russia on the questions related to the use of Grid-technologies in various areas of science, education, industry and business.  

The main purpose of the Conference is to discuss the current Grid operation and future role of the Grid in Russia and worldwide, similar technologies for data-intensive computations: cloud computing, BigData etc. The Conference provides a way for discussing fresh results and for establishing contacts for closer cooperation in future. 

Programme of the Conference includes plenary reports in English (30 min), sectional reports (15 min) and poster presentations (in English or Russian). 

The workshop “Computing models, Software and Data Processing for the future HENP experiments” co-located  with  conference will be organize on June 30 - July 2, Co-chair: Dr. I. Bird (CERN), Dr. A. Klimentov (BNL), Dr. V. Korenkov (JINR) 

Working languages - Russian and English 

 

 


 

Participants
  • Aleksey Bondyakov
  • Aleksey Struchenko
  • Alexander Afanasiev
  • Alexander Andreev
  • Alexander Bersenev
  • Alexander Bogdanov
  • Alexander Degtyarev
  • Alexander Golunov
  • Alexander Kolesnikov
  • Alexander Kryukov
  • Alexander Minkin
  • Alexander Novikov
  • Alexander Pershikov
  • Alexander Prokhorov
  • Alexander Rappoport
  • Alexander Rumyantsev
  • Alexander Russkov
  • Alexander Uzhinskiy
  • Alexandr Baranov
  • Alexandr Pankin
  • Alexandra Berezhnaya
  • Alexandre Vaniachine
  • Alexey Nazarenko
  • Alexey Poyda
  • Alexey Tarasov
  • Anastasya Demidova
  • Anatolii Leukhin
  • Anatoly Kurachenko
  • Andrei Tsaregorodtsev
  • Andrey Baginyan
  • Andrey Kiryanov
  • Andrey Lebedev
  • Andrey Nechaevskiy
  • Andrey Polyakov
  • Andrey Shevel
  • Andrey Zarochentsev
  • Anna Iutalova
  • Anna Korolkova
  • Anthony Teslyuk
  • Arkady Kuznetsov
  • Arsen Kairkanov
  • Artem KROSHENINNIKOV
  • Artem Petrosyan
  • Attila Csaba Marosi
  • Bahruz Ahadov
  • Bo Tian
  • Bolormaa Dalanbayar
  • Bruce Mellado
  • Calin Gabriel Floare
  • Danila Oleynik
  • Daria Rumyantseva
  • Darya Lemtyuzhnikova
  • Dmitriy Lotarev
  • Dmitry Golubkov
  • Dmitry Kulyabov
  • Dmitry Podgainy
  • Dmitry Shaposhnikov
  • Dzmitry Yermak
  • Eduard Vatutin
  • Egor Potekhin
  • Ekaterina Eferina
  • Elena Putilina
  • Elena Sibirtseva
  • Elena Tikhonenko
  • Evgeniya CHEREMISINA
  • Evgheniy Kuklin
  • Eygene Ryabinkin
  • Gennady Ososkov
  • George MUSAT
  • George Thomas Wrigley
  • Gheorghe ADAM
  • Gleb Stiforov
  • Grigoriy Masich
  • Hovhannes OGANEZOV
  • Igor Pelevanyuk
  • Igor TKACHENKO
  • Ilya Kurochkin
  • Ilya Lyalin
  • Ilya Trifalenkov
  • Irina Filozova
  • Irina Nekrasova
  • Ivan Gankevich
  • Ivan Gostev
  • Ivan Kadochnikov
  • Ivan Slepov
  • Kirill Kholodkov
  • Konstantin Gertsenberger
  • Konstantin Shefov
  • Kyaw Zaya
  • Leonid Sevastyanov
  • Lev Shchur
  • Liudmila Stepanova
  • Lucia Valova
  • Magsarjav Bataa
  • Maksim Bashashin
  • Margarita Stepanova
  • Maria Grigorieva
  • Marina Golosova
  • Marina Panchenko
  • Maxim Zuev
  • Migran Gevorkyan
  • Mihnea Dulea
  • Mikhail Kompaniets
  • Mikhail Matveyev
  • Mikhail Plyashkevich
  • Mikhail Posypkin
  • Mitchell Cox
  • Nanzadragchaa Dambasuren
  • Natalie Gromova
  • Nataliia Kulabukhova
  • Nataly Tikhonova
  • Nikita Balashov
  • Nikita Kalutsky
  • Nikolai Yuzhanin
  • Nikolay Ershov
  • Nikolay Gorbunov
  • Nikolay Khrapov
  • Nikolay Kutovskiy
  • Nikolay Voytishin
  • Nugzar Makhaldiani
  • Ochbadrakh Chuluunbaatar
  • Oksana Streltsova
  • Oleg Iakushkin
  • Oleg Rogachevsky
  • Oleg Sukhoroslov
  • Oleg Zaikin
  • Olga Derenovskaya
  • Olga Korotchik
  • Olga Ustimenko
  • Oliver Keeble
  • Otgontsetseg Sukhbaatar
  • Oxana Smirnova
  • Pavel Bunin
  • Predrag Buncic
  • PyaeSone KoKo
  • Rafig Safarov
  • Robert Reed
  • Roman Semenov
  • Rovshan Hashimov
  • SANDA - ANCA ADAM
  • Semen Lebedev
  • Sergei Shmatov
  • Sergey Belov
  • Sergey Bobkov
  • Sergey Ivanov
  • Sergey Merts
  • Sergey Mitsyn
  • Sergey Polyakov
  • Sergey Smirnov
  • Sergey Volkov
  • Serob Balyan
  • Shushanik Torosyan
  • Suren Abrahamyan
  • Tatiana Levchenko
  • Tatiana Strizh
  • Tatiana Velieva
  • Tatiana Zaikina
  • Tatyana Ezhakova
  • Tatyana Goloskokova
  • Teodor Ivanoaica
  • Thurein Kyaw Lwin
  • Timur Ablyazimov
  • Tural Mammadov
  • Vadim Guskov
  • Valery Mitsyn
  • Valery Pervushov
  • Vasily Golubev
  • Vasily Khramushin
  • Viacheslav Ilyin
  • Victor Galaktionov
  • Victor Ivanov
  • Victor Kotlyar
  • Victor Lakhno
  • Victor Tishchenko
  • Victor Zhiltsov
  • Victoria Podryga
  • Vladimir Bezrodny
  • Vladimir Dimitrov
  • Vladimir Gaiduchok
  • Vladimir Korenkov
  • Vladimir Mossolov
  • Vladimir Trofimov
  • Vladimir Voloshinov
  • Vladimir Vorobyev
  • Vsevolod Trifalenkov
  • Wunna Kyaw
  • Yaroslav Shcherbakov
  • Yulia Dubenskaya
  • Yury Kryukov
  • Yury Lazin
    • 09:00 10:00
      Registration: at the LIT Conference Hall Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
    • 10:00 11:30
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Prof. Vladimir Korenkov (JINR)
      • 10:00
        Opening welcome from JINR 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
      • 10:20
        Opening welcome from Sponsors 40m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
      • 11:00
        Opening welcome from Partners 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
    • 11:30 12:00
      Coffee 30m
    • 12:00 13:00
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Prof. Vladimir Korenkov (JINR)
      • 12:00
        Laboratory of Information Technologies: Status and Future 20m
        Speaker: Prof. Vladimir Korenkov (JINR)
        Slides
      • 12:20
        High Performance computations on hybrid systems: will "GRAND CHALLENGES" be solved? 20m
        High Performance computations on hybrid systems: will "GRAND CHALLENGES" be solved?
        Speaker: Prof. Alexander Bogdanov (SPbSU)
        Slides
      • 12:40
        JOINT INSTITUTE FOR NUCLEAR RESEARCH Today and Tomorrow 20m
        Speaker: Dr Grigory Trubnikov
        Slides
    • 13:00 14:30
      Lunch 1h 30m
    • 14:30 16:00
      Algorithms and methods of application tasks solving in distributed computing environments 407

      407

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 14:30
        PRAND: library of random number generators for Monte Carlo on parallel and distributed computers 15m
        We present information on the library PRAND [1] [2] with a number of most efficient random number generators. Library can be used for the Monte Carlo simulations using parallel supercomputers, distributed computing, and hybrid computers. Effective realizations includes extensive usage of SIMD extensions of Intel and AMD processors and CUDA language for Nvidia Graphics Processing Units. Programming languages are C and Fortran. One of the useful features for using PRAND in parallel simulations is the ability to initialize up to 1019 independent streams. We demonstrate our approach with the Monte Carlo calculation of integrals on K-100 and “Lomonosov” hybrid supercomputers effectively using up to 3000 GPUs [3]. [1] L.Yu. Barash and L.N. Shchur, PRAND: GPU accelerated parallel random number generation library: Using most reliable algorithms and applying parallelism of modern GPUs and CPUs, Computer Physics Communications 185 (2014) 1343–1353. [2] Л.Ю. Бараш и Л.Н. Щур, Библиотека PRAND: генерация параллельных потоков случайных чисел для расчетов Монте-Карло с использованием GPU, CUDA Альманах, март 2014, стр. 17. [3] Л.Ю. Бараш и Л.Н. Щур, Монте-Карло, «Ломоносов» и многомерный интеграл, Суперкомпьютеры, 1 (2014) 47-49.
        Speaker: Prof. Lev Shchur (Landau Institute for Theoretical Physics and Scientific Center in Chernogolovka)
      • 14:45
        Efficient processing and classification of wave energy spectrum data with a distributed pipeline 15m
        Processing of large amounts of data often consists of several steps, e.g. pre- and postprocessing stages, which are executed sequentially with data written to disk after each step, however, when preprocessing stage for each task is different the more efficient way of processing data is to construct a pipeline which streams data from one stage to another. In a more general case some processing stages can be factored into several parallel subordinate stages thus forming a distributed pipeline where each stage can have multiple inputs and multiple outputs. Such processing pattern emerges in a problem of classification of wave energy spectra based on analytic approximations which can extract different wave systems and their parameters (e.g. system type, mean wave direction) from spectrum. Distributed pipeline approach achieves good performance compared to conventional “sequential-stage” processing.
        Speaker: Mr Ivan Gankevich (Saint Petersburg State University)
      • 15:00
        Optimization algorithms of multiparameter reactive force field 15m
        Molecular dynamic methods that use ReaxFF force field allow one to obtain sufficiently good results in simulating large multicomponent chemically reactive systems. Here are represented two algorithms of searching optimal parameters of molecular-dynamic force field ReaxFF and their implementations. These algorithms allow one to search force field parameters for arbitrary types of chemically reactive systems. For the optimization process the program uses data obtained by accurate quantum chemical computations of characteristics (training set) of simple models of chemical compounds. The first algorithm is based on the one-parameter search method. The second one is the multidimensional algorithm of global search. The advantage of the second algorithm is its good scalability useful for running it on distributed parallel computers. Based on the optimized parameters obtained earlier, we compare efficiency of these two methods, namely speed and proximity to the expected result.
        Speaker: Dr Margarita Stepanova (SPbSU)
      • 15:30
        АЛГОРИТМ ГЕНЕРАЦИЙ 1024 БИТНОГО КЛЮЧА С ИСПОЛЬЗОВАНИЕМ CUDA АРХИТЕКТУРЫ 15m
        Мы тестировали алгоритм генераций 2048 битного RSA ключа на Nvidia графическом акселераторе с использованием CUDA программирования. Веб сайты и сетевые компьютеры используют криптосистемы с открытыми ключами для идентификации. RSA используется в основном для расшифровки трафика между клиентом и сервером. Защита RSA криптосистемы построена на факторизации больших чисел. Открытый ключ RSA состоит из пары целых чисел: открытой экспоненты е и модуля N, являющимся произведением двух больших простых чисел p и q. Задача разложения натурального числа N на простые множители явлется задачей вычисления односторонней функции: зная сомножители p и q, нетрудно вычислить их произведение N = p • q, но обратная задача нахождения делителей p и q по известному N является сложной задачей, решение которой требует значительных вычислительных ресурсов. Мы использовали openSSL библиотеку для генерации 2048 битного числа. Чтобы проверить генерированное число является ли простым AKS тест на простоту чисел [1]. Для вычисления использовали Intel Core i3 процессор с 2.92 ГГц тактовой частотой, и , Nvidia GTX 650 графический акселератор с двумя поточными мультипроцессорами. Для отображения числа на памяти использовали следующую форму: , (1). Здесь В- основа системы исчесления , и - множители “цифры”. GTX 650 графическая карта имеет 32 битовый регистр в каждом ядре мы выбрали основу B = . Для вычисления НОД-а использовали расширенный алгоритм Эвклида [1]. Список литературы [1] Введение в криптографию. Под общ. ред. В.В.Ященко//М., МЦНМО, 2008
        Speaker: Dr Болормаа ДАЛАНБАЯР (Монгольский Государственный Университет, Факультет Прикладной Науки и Инженеринга)
    • 14:30 16:00
      Section 1 - Technologies, architectures, models, methods and experiences of building distributed computing systems. Consolidation and integration of distributed resources conference hall

      conference hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Dr Tatiana Strizh (JINR)
      • 14:30
        Cloud Infrastructure at JINR 15m
        Cloud technologies start to gain popularity in academic field. Modern scientific centers use clouds for their everyday work. The article describes the cloud infrastructure deployed at the Laboratory of Information Technologies of the Joint Institute for Nuclear Research (LIT JINR). It explains the goals of its creation, specifics of the implementation and utilization, current work and plans for the future.
        Speaker: Alexandr Baranov (JINR,LIT)
        Slides
      • 14:45
        Облачная система для анализа данных секвенированния 20m
        После публикации первого генома человека секвенирование ДНК превратилось в один из повседневных инструментов молекулярной биологии. Данные задачи являются ресурсоёмкими, и с внедрением технологии секвенирования последнего поколения (next-generation sequencing) ресурсоёмкость лишь возрастает, как и потребность в решении этих задач. В данной статье представлена облачную систему для анализа секвенированных данных с динамической балансировкой вычислительных ресурсов и позволяющая исследователям решать поставленные задачи путем формирования рабочего потока задач (workflow).
        Speaker: Mr Anatoly Kurachenko (National Research Centre "Kurchatov Institute")
        Slides
      • 15:05
        Использование облачных технологий CERN для дальнейшего развития и применения ПО TDAQ ATLAS при обработке данных ДЗЗ в приложениях космического мониторинга. 20m
        Участие группы TDAQ ATLAS ОИЯИ в разработке ПО распределенной системы сбора и обработки данных эксперимента ATLAS (CERN) связана с необходимостью в работы в условиях динамично развивающейся системы и ее инфраструктуры Использование облачных технологий, в частности виртуальных машин CernVM, предоставляет наиболее эффективные способы доступа, как к собственно ПО TDAQ, так и к ПО, используемому в CERN: среда - Scientific Linux, и software repository c CernVM-FS. Кроме того, предоставляется возможность создания виртуальной инфраструктуры в ОИЯИ, а также возможность резервного копирования виртуальных машин, запуска нескольких копий или возврата к отлаженной версии после сбоя. Приводится краткая характеристика CernVM и его применения для развития ПО TDAQ ATLAS, при использовании виртуальных машин CernVM и файловой системы CernVM-FS, а также возможность использования виртуальных машин в CERN и при удаленном доступе. Для проведения отладки предполагается разработать стенд, на котором можно было бы: • вести дальнейшую разработку и отладку ПО для TDAQ ATLAS, • вести работы по применению ПО TDAQ ATLAS для других целей (обработки данных ДЗЗ).
        Speaker: Mr Михаил Минеев (ОИЯИ)
        Slides
      • 15:25
        Development of Distributed Computing Applications and Services with Everest Cloud Platform 20m
        The ability to effortlessly use and combine existing computational tools and computing resources is an important factor influencing research productivity in many scientific domains. However, scientific software often requires specific expertise in order to install, configure and run it that is beyond the expertise of an ordinary researcher. This also applies to configuration and use of computing resources to run the software. Finally, researchers increasingly need to combine multiple tools in order to solve a complex problem, which brings an important issue of application composition. The report presents Everest, a cloud platform that addresses these problems by supporting publication, sharing and reuse of scientific applications as web services. The underlying approach is based on a uniform representation of computational web services and its implementation using REST architectural style pioneered by MathCloud project [1]. In contrast to traditional service development tools, Everest follows the Platform as a Service cloud delivery model by providing all its functionality via remote web and programming interfaces. A single instance of the platform can be accessed by many users in order to create, run and share services with each other without the need to install additional software on users’ computers. Another distinct feature of Everest is the ability to run jobs on external computing resources and connect services to arbitrary sets of resources. A computing resource can be attached to the platform by any user. A resource owner can configure a policy for accessing the resource. Any allowed user can bind the resource to any service. It is also possible to bind multiple resources to a service, or override default resources by providing another resource for running a job. While the platform doesn’t provide its own infrastructure to run compute jobs as classic PaaS examples, it can handle the problems of resource allocation, job scheduling, data transfer and so on without the interference of users. All interaction with external computing resources is performed by the Compute subsystem that represents a generic metascheduling framework. It manages execution of computational jobs, consisting of one or more tasks, on remote resources and performs all routine actions related to staging of task input files, submitting a task, monitoring a task state and downloading task results. Compute subsystem also monitors the state of resources attached to the platform and uses this information during job scheduling. The platform’s application programming interface (REST API) is implemented as a RESTful web service. It serves as a single entry point for all clients, including the web user interface. The latter is implemented as a JavaScript application and provides a convenient graphical interface for interaction with the platform. A Python API is implemented on top of REST API in order to support writing programs that access services and combine them in arbitrary workflows. The work is supported by the Russian Foundation for Basic Research (grant No. 14-07-00309 А). [1] Afanasiev A., Sukhoroslov O., Voloshinov V. MathCloud: Publication and Reuse of Scientific Applications as RESTful Web Services // Victor E. Malyshkin (Ed.): Parallel Computing Technologies (12th International Conference, PaCT 2013, St. Petersburg, Russia, September 30 — October 4, 2013). Lecture Notes in Computer Science Volume 7979. Springer 2013. pp. 394-408
        Speaker: Dr Oleg Sukhoroslov (IITP RAS)
        Slides
      • 15:45
        Storage Database in Cloud Processing 15m
        Cloud computing and cloud storage systems have gained popularity as the most convenient way of transferring information and provide the functionality of online. Some cloud services offer a wide range of services and functions to individual consumers ( online shopping and online multimedia technology , social networking environment for e-commerce and protect important digital documents ), and other commercial structures provide work for small and medium businesses , large corporations, government and other institutions. In this article we look at the types of cloud architectures processing and data storage based on the proven technology of enterprise storage.
        Speaker: Mr Thurein Kyaw (Saint-Petersburg State University)
    • 14:30 16:00
      Technical interchange meeting: Computing models, Software and Data Processing for the future HENP experiments 310

      310

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
    • 16:00 16:30
      Coffee 30m
    • 16:30 18:30
      Algorithms and methods of application tasks solving in distributed computing environments 407

      407

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 16:30
        Параллельные алгоритмы регистрации распадов J/ψ→e+e- в эксперименте СВМ 15m
        Измерения чармония (J/ψ, ψ’) по диэлектронному каналу распада относятся к ключевым задачам эксперимента СВМ. Для решения данной задачи развита методика, которая включает в себя цепочку методов и алгоритмов, предназначенных для реконструкции траекторий заряженных частиц и определения их импульсов с помощью детектора STS, идентификацию с помощью детекторов RICH, TRD и TOF, формирования кандидатов в J/ψ -мезоны с помощью пакета KFParticle. Так как регистрацию и реконструкцию событий, связанных с рождением чармония, планируется проводить в режиме реального времени эксперимента, то рассматриваемые методы и алгоритмы должны быть не только эффективными, но и быстрыми. В работе нами представлены результаты по оценке временных затрат используемых алгоритмов, в том числе с применением векторизации программного кода посредством SIMD-инструкций и распараллеливания задач на высокопроизводительных многоядерных процессорах, реализованных с помощью программных сред OpenMP, OpenCL и библиотеки TBB.
        Speaker: Mrs Olga Derenovskaya (LIT JINR)
      • 16:45
        Реализации алгоритмов межатомного взаимодействия с использованием технологии OpenCL 15m
        Моделирование углеродных наноструктур на уровне отдельных атомов требует больших объемов вычислений. Одним из способов повышения скорости вычисления межатомного взаимодействия является адаптация алгоритмов для работы с SIMD-подобными архитектурами, в частности, с графическими процессорами. В данной работе рассмотрены особенности алгоритмов вычисления многочастичного взаимодействия наноструктурах на базе классических потенциалов Терсоффа и погруженного атома с использованием технологии OpenCL. Стандарт OpenCL позволяет обеспечить универсальность и переносимость алгоритмов. В данной работе сделана оценка производительности OpenCL алгоритмов вычисления межатомного взаимодействия для различных систем на базе центральных и графических процессоров. Указанный подход может быть эффективно применен для расчётов на гетерогенных вычислительных системах.
        Speaker: Mr Alexander Minkin (National Research Centre "Kurchatov Institute")
      • 17:00
        THE MAXIMUM DISTANCE IN THE GRAPH WITH FIXED DOMINATION NUMBER 15m
        The study considers the problem of analysis of metric characteristics and structural features of graphs with a fixed smallest dominating set. It, in particular, provides opportunities for realization of various ways of data transmission in communication networks. The results also include methods of such transmission using decentralization and local interaction of elements (for example, in peer-to-peer environments). The work shows an estimate of maximum distances, diameter and – for these values – the type of configurations of graphs with fixed domination number. A special place is given to situation when there are two dominating elements. The study formulates a number of conditions describing graphs of this type. [1] A. M. Rappoport. The problem of construction of the decentralized communication structures. Dynamic of non-homogeneous systems. Proceedings of ISA RAS, M.: URSS, 2004, Vol.7, P.176-179. [2] A. P.Afanas’ev, A. M Rappoport. Construction and estimation of dominating sets in communication structures. Doklady Mathematics, 2006, Vol.73, No.3, P. 465-468. [3] T. W. Haynes, S.T. Hedetniemi, P. J. Slater. Fundamentals of domination on graphs. Marcel Dekker, Inc. New York, 1998, P. 450. [4] V. A. Emelichev, etc. Lectures on the graphs theory. M.: Librokom, 2008, P. 383.
        Speaker: Dr Alexander RAPPOPORT (A. A. Kharkevich Institute for Information Transmission Problems, RAS)
      • 17:15
        An interactive tool for developing distributed telemedicine systems 15m
        Carrying out qualified medical examination can be difficult for people in remote areas because there might be no medical staff available or it might have no expert knowledge of proper level. Telemedicine is able to help in such situations. Firstly, telemedicine technologies allow highly qualified doctors to consult remotely thereby increasing the quality of diagnosis and plan treatment. Secondly, a computer-aided analysis of the research results, anamnesis and information on similar cases assist medical staff in facilitation of routine activities and decision-making. Creating a telemedicine system for a particular domain is a laborious process. It’s not enough to find qualified medical experts and to fill the knowledge base of the analytical module. It’s also necessary to organize the whole infrastructure of the system to meet the requirements in terms of reliability, fault tolerance, protection of personal data and so on. Tools with reusable infrastructure elements, which are common to such systems, are able to decrease the amount of work needed for the development of telemedicine systems. An interactive tool for creating distributed telemedicine systems is described in the article. A list of requirements for the systems is given; structural solutions for meeting the requirements are suggested. A cardiac telemedicine system is described as an example of applying the tool.
        Speaker: Mr Vadim Guskov (Herzen State Pedagogical University of Russia, St.Petersburg)
      • 17:30
        Декомпозиция задачи моделирования некоторых объектов археологических исследований для работы в распределенной вычислительной среде 15m
        Визуализация реконструкции археологических памятников и моделирование эпизодов прошедших исторических событий всегда являлось важнейшей задачей исторических исследований. В работе выделен набор задач для реконструкции некоторых классов архитектурных объектов, для которых автоматизированное моделирование является оптимальным решением с точки зрения достоверности и трудозатрат. В то время как каждая задача воссоздания артефактов уникальна, моделирование фасадов, фундаментов и конструктивных элементов строений может быть параметризовано. На практике это означает, что проработка деталей каждого отдельного камня/блока/плиты, из которых состоит реконструируемый объект, на первом этапе работы может быть произведена в распределенной вычислительной среде без участия художника. В данной работе рассматривается комплекс существующих программных библиотек и решений, которые необходимо объединить в единую вычислительную систему для решения такой задачи. Ее актуальность определяется сложившейся сегодня практикой, когда для достижения достоверности изображения и процесса разрушения конструкций, художники производят моделирование строений по одному камню, что несоизмеримо по трудозатратам с автоматизированным решением. В работе проанализированы программные продукты, используемые художниками для моделирования. В них не обнаружилось средств, позволяющих автоматизировано воссоздавать даже довольно простые объекты, состоящие из взаимосвязанных элементов – камней. В связи с этим разработан подход, позволяющий путем внесения возможных случайных возмущений создавать камни и стены как индивидуальные объекты. Разработан алгоритм создания конструкций, состоящих из уникальных камней, которые могут собираться (и разбираться) в трехмерном пространстве. Алгоритм основан на работе с облаками точек и их кластеризацией. Моделирование большого количества объектов, состоящих из таких конструкций, например, улицы древнего города, подразумевает большие вычислительные мощности. Для повышения производительности моделирования с большим числом однотипных объектов (например, с облаками точек) разработана библиотека, работающая как с CPU, так и с GPU. Для того чтобы сервисная платформа могла предоставлять пользователям результат за приемлемое время, следует использовать кластерное решение с поддержкой GPGPU для разработки, отладки и тестирования. Высокие требования к скорости создания модели и объем необходимых вычислений требуют разработки сервисной системы, существующей в распределенной вычислительной среде. В результате решение подразделяется на клиентскую часть, работающую в программе моделирования, которую использует художник, и серверную часть, производящую анализ и вычисления автоматизировано. Вынесение основного механизма создания модели в сервисную прослойку позволяет сделать клиент тоньше, а систему в целом, в перспективе, применимой к работе с другими средствами визуального моделирования, без привязки к конкретному API. В работе представлены алгоритмы создания и оптимизации объектов, произведено сравнение существующих библиотек работы с облаками точек и последующей оптимизации геометрии 3D модели в контексте рассматриваемой задачи. Для того чтобы учесть изменения, происходящие в сервисной системе, расширение, устанавливаемое в программный пакет, должно быть обновляемо. В работе описан алгоритм того, как должно проходить такое обновление. Рассматриваемая сервисная архитектура позволяет расширять функциональность на уровне предобработки и постобработки данных за рамками системы 3D моделирования. Так мы можем на стадии предобработки запросить у пользователя визуальную информацию об объекте, с которым он работает, и предложить для такого объекта настройки сервиса моделирования. На стадии постобработки мы можем предложить пользователю выбор региона облака точек, который он желает отобразить. Описанная в работе архитектура позволяет производить мягкое обновление системы. Другими словами, создавать, тестировать и внедрять новые компоненты системы, внося обновления и не прерывая работу текущих сессий пользователей. Детально рассмотрены показатели, влияющие на выбор технологических и архитектурных вариантов. Проработаны решения задачи моделирования отдельных объектов археологических исследований для работы в распределенной вычислительной среде с помощью сервисной архитектуры, ее масштабирования и последующего развития. Работа выполнена при частичной поддержке гранта СПбГУ 9.38.674.2013, гранта СПбГУ 9.37.157.2014 гранта РФФИ № 13-07-747. Исследования были проведены с использованием вычислительных ресурсов Ресурсного Центра "Вычислительный центр СПбГУ" (http://cc.spbu.ru).
        Speaker: Oleg Iakushkin (Saint-Petersburg State University)
      • 17:45
        Интерактивный вычислительный инструментарий глобального вычислительного эксперимента в службе морских оперативных прогнозов 15m
        Современные информационно-вычислительные комплексы удовлетворяют требованиям по производительности и способности оперировать глобальными объемами общегеографических, океанографических и гидрометеорологических данных для вовлечения прямых вычислительных экспериментов в оперативную работу морских служб. Актуальной задачей представляется контроль текущего состояния и своевременный прогноз опасных морских явлений, прибрежных экстремальных течений, астрономических приливов, штормовых нагонов и сейсмических цунами, моделирование которых основано либо на вовлечении динамических граничных условий по огромным океанским акваториям, либо на исходных данных по Мировому океану в целом. В настоящей работе обсуждаются алгоритмические особенности построения интерактивного вычислительного эксперимента для моделирования длинноволновых процессов в масштабах Мирового океана и частично закрытых морей, с распараллеливанием уточняющих расчетов вблизи конкретных участков морского побережья. Уделяется внимание возможности непрерывного контроля качества моделирования гидродинамических процессов в областях с особыми условиями устойчивости и плохообусловленными аппроксимационными критериями. Рассматриваются методы графической визуализации, в том числе осуществляемой в параллельных процессах с общей оперативной памятью и по контрольным точкам на внешних носителях. Даются оценки вычислительной эффективности, достигаемой как за счет оптимизации физической постановки задачи, так и с помощью вовлечения расширенных архитектурных возможностей вычислительной аппаратуры. В заключение формулируются перспективные проектные решения по созданию функциональной среды прямых вычислительных экспериментов в гидромеханике, формулируются оптимальные подходы к реализации объектно-ориентированной среды программирования, учитывающие возможность эффективного задействования различных программно-архитектурных платформ современных информационно-вычислительных комплексов.
        Speaker: Dr Vasily Khramushin (Saint-Petersburg State University)
        Slides
    • 16:30 18:30
      Section 1 - Technologies, architectures, models, methods and experiences of building distributed computing systems. Consolidation and integration of distributed resources Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 16:30
        Scalable cloud without dedicated storage. 20m
        We present a prototype of а scalable computing cloud. It is intended to be deployed on the basis of a cluster without a separate dedicated storage. The dedicated storage is replaced by the distributed software storage. In addition, all cluster nodes are used both as computing nodes and as storage nodes. This increases utilization of the cluster resources as well as improves the fault tolerance and performance of distributed storage. Another advantage of this solution is high scalability with relatively low initial and maintenance cost. The solution is built on the basis of the open source components like CloudStack, Ceph, etc.
        Speaker: Dr Mikhail Kompaniets (SPbSU)
        Slides
      • 16:50
        Applications of on-demand virtual clusters to high performance computing 20m
        Virtual machines are usually associated with an ability to create them on demand by calling web services, then these machines are used to deliver resident services to their clients; however, pro­viding clients with an ability to run an arbitrary programme on the newly created machines is be­yond their power. Such kind of usage is useful in a high performance computing environment where most of the resources are consumed by batch programmes and not by daemons or services. In this case a cluster of virtual machines is created on demand to run a distributed or parallel programme and to save its output to a network attached storage. Upon completion this cluster is destroyed and re­sources are released. With certain modifications this approach can be extended to interactively de­liver computational resources to the user thus providing virtual desktop as a service. Experiments show that the process of creating virtual clusters on demand can be made efficient in both cases. Earlier work on this topic was presented by the authors in [1]. The concept of virtual private supercomputer, which goes back to the definition of metacomputer [2], was proposed and evaluated using different virtualization technologies and applications. Now we present a revised approach and implementation concentrating on creation of virtual machines on demand and executing distributed applications transparently in this environment. This work also develops ideas of using virtualization for creating a virtual workspace to access resources at supercomputer centers [3]. The key idea of a virtual supercomputer is to harness all available HPC resources and provide user with convenient access to them. Such a challenge can be effectively solved only using contemporary virtualization technologies. Usage of cloud technologies as well as process migration techniques can improve overall throughput of a distributed system and adapt it to problems being solved. In that way virtual supercomputer can help people efficiently run applications and focus on domain-specific problems rather than on underlying computer architecture and placement of parallel tasks. Moreover, described approach can be beneficial in utilizing stream processors and GPU accelerators dynamically assigning them to virtual machines. [1] I. Gankevich, V. Gaiduchok, D. Gushchanskiy, Y. Tipikin, V. Korkhov, A. Degtyarev, A. Bogdanov, V. Zolotarev. Virtual private supercomputer: Design and evaluation. Computer Science and Information Technologies (CSIT), 2013, pp.1-6, 23-27 Sept. 2013 doi: 10.1109/CSITechnol.2013.6710358 [2] L. Smarr and C.E. Catlett. Metacomputing. Communications of the ACM, vol. 35, no. 6, pp. 44-52, June 1992. [3] A.V. Bogdanov, A.B. Degtyarev, I.G. Gankevich, V.Yu. Gayduchok, and V. I. Zolotarev. Virtual workspace as a basis of supercomputer center. Proceedings of the 5th International Conference Distributed Computing and Grid-Technologies in Science and Education, Dubna, Russia, 2012, pp. 60-66.
        Speakers: Mr Ivan Gankevich (Saint Petersburg State University), Mr Serob Balyan (Saint Petersburg State University)
        Slides
      • 17:10
        Integration of the computing cluster into the information system of facility 20m
        The experience of integration of the computing cluster into the information system of facility is described. The cluster is comprised of one control node (2×CPU Intel Xeon E5-2670, 64 Гб RAM) and two compute nodes (1×CPU Xeon E5-2670, 64 Гб RAM, 1×GPU Nvidia Tesla M2090). The following problems had to be solved during cluster configuration. Integration of the cluster authentication system with faculty's local network authentication system. Setting the consistent software updates on the cluster's control node and the compute nodes. The centralized initial cluster setup with help of xcat utility. Installing additional software with CUDA technology support. Creating the local software repository for specific software support (for example, PBS / Torque with CUDA support). The following software were to be installed on the cluster: GNU Compiler Collection (gcc) [2], with gfortran version 4.4.7 с OpenMP [3], Julia language compiler [4], Python interpreter version 2.7. Oslo following libraries have been installed: OpenMPI [5], MPICH [6], BLAS [7], LAPACK [8], GSL (GNU Scientific Library) [9], GAMESS (US) (General Atomic and Molecular Electronic Structure System) [10], Python NumPy and SciPy [11]. All the software listed above is widely known and a good account of itself in the field of scientific computing. However, it may be useful to give a little bit more details about Julia programming language — the new open source programming language that is in the stage of active development. Julia language has created to achieve following goals: multiparadigmality, focus on scientific computing, the possibility of interactive language constructions execution (like iPython), achieving the performance close to C/C++ and Fortran, built-in support of parallel computing, easy integration of an external Fortran and C/C++ libraries. Литература 1. Геворкян М.Н., Королькова А.В., Кулябов Д.С. Настройка высокопроизводительного вычислительного комплекса // // Информационно-телекоммуникационные технологии и математическое моделирование высокотехнологичных систем / РУДН. — Москва: РУДН, 2014. — С. 171. 2. GCC, the GNU Compiler Collection — http://gcc.gnu.org/ 3. OpenMP API specification for parallel programming — http://openmp.org/wp/ 4. The Julia Language — http://julialang.org/ 5. Open MPI: Open Source High Performance Computing — http://www.open-mpi.org/ 6. MPICH: High-Performance Portable MPI — http://www.mpich.org/ 7. BLAS (Basic Linear Algebra Subprograms) — http://www.netlib.org/blas/ 8. LAPACK — Linear Algebra PACKage — http://www.netlib.org/lapack/ 9. GSL - GNU Scientific Library — http://www.gnu.org/software/gsl/ 10. The General Atomic and Molecular Electronic Structure System (GAMESS) — http://www.msg.ameslab.gov/gamess/gamess.html 11. SciPy/NumPy — http://scipy.org/
        Speakers: Dr Dmitry Kulyabov (PFUR), Mr Migran Gevorkyan (PFU)
      • 17:30
        Review of Julia programming language for scientific computing 20m
        Julia is new high-level programming language that supports multiple programming styles and primarily focuses on scientific computing [1]. Language has been developed at the Massachusetts Institute of Technology (MIT) in 2009 under the MIT license and is available through the public repository on GitHub [2]. Language is under active development and it's latest version is 0.3. Language has built-in tools for parallel and distributed computing, and supports multithreading (coroutines). Developers have mentioned that Julia does not impose any particular style of parallelism on the user but provides a set of blocks that allows implementing parallelism as programmer likes. Julia is scientific oriented language and it influence on all aspects of language. There are built-in mathematical oriented data types in Julia, such as rational and complex numbers. Dynamic type conversion avoids a loss of accuracy, which is important in the scientific calculations. Also a large variety of built-in mathematical functions and a large number of libraries are present. One of the main goals of the language was to achiev high performance close to the C/Fortran, and clarity interpreted languages. Besides compiling source files into an executable program julia has the ability to execute language constructs interactively (like interpreted languages), as well as an interface to support iPython. Another key feature of the language is simple API for functions and subroutines of C/Fortran/Python. The standard library has lots of built-in wrappers for popular libraries (eg, BLAS and LAPACK). Also, there is a possibility to connect external libraries C / Fortran / Python. Julia supports multiple programming paradigms: procedural, object-oriented, functional programming. Language is under active development and is replenished with libraries for various fields of mathematics, physics and engineering sciences. 1. The Julia Language — http://julialang.org/ 2. The Julia Language·GitHub — https://github.com/JuliaLang
        Speaker: Mr Migran Gevorkyan (PFU)
      • 17:50
        Implementation of computing resource agent for the Everest cloud platform 20m
        Everest [1] is a cloud platform that supports publication, sharing and reuse of scientific applications as web services. In contrast to traditional service development tools, Everest follows the Platform as a Service (PaaS) cloud delivery model by providing all its functionality via remote interfaces. A single instance of the platform can be accessed by many users in order to create, run and share services with each other. While the platform doesn’t provide its own computing infrastructure, it enables users to connect services to external computing resources. Everest can handle the problems of resource allocation, job management, data transfer and so on without the interference of users. Described in this work is the implementation of integration of computing resources to Everest platform. Such integration is achieved by using a special component, called “Agent”, which is an application executed on a resource under a total control of resource's owner, that acts as a mediator between the platform and the resource. The interaction between agent and the platform is based on WebSocket [2] and HTTP(S) protocols. These protocols allow two-way communication even in the most restricted environments, such as resources behind a firewall. The only requirement for agent's operation is allowed outbound connectivity on a standard HTTP(S) port. On startup agent establishes a connection to the platform on that port, and tries to reestablish it in cases of disconnection. Upon successful connect, agent authenticates itself by sending a secret key issued to resource owner by the platform. After that it starts a waiting loop, which accepts two types of commands: starting a new task and canceling a previously started one. In return agent reports changes in tasks' states and periodically sends information on resource state itself. Agent is implemented in Python language and uses ws4py library [3] for basic communication with the platform. Agent consists of five components: AgentProtocolClient, Sender, TaskManager, TaskWorker and TaskHandler. AgentProtocolClient is responsible for receiving messages from the platform, Sender handles sending messages back. TaskManager converts messages to actual tasks and starts TaskWorkers which are responsible for task data transfer, execution and monitoring of task state. The latter two operations are performed via TaskHandler which serves as a back-end, which translates generic commands such as “execute task” or “get task state” to resource specific commands. To this moment three types of task handlers have been implemented. LocalTaskHandler executes tasks on a standalone server with Unix-based OS, SLURM- and TORQUE- TaskHandlers execute tasks on clusters with corresponding resource managers. At this stage the agent is a fully functional component of the Everest platform and has been used in some practical applications. It is still under active development and new features are planned to be implemented in the future, for example support for other types of computing resources. REFERENCES 1. Sukhoroslov O., Afanasiev A.. Everest: A Cloud Platform for Computational Web Services // 4th International Conference on Cloud Computing and Services Science (CLOSER 2014) 2. Fette, I., Melnikov A., "The WebSocket Protocol", RFC 6455, December 2011. 3. ws4py by Sylvain Hellegouarch, https://github.com/Lawouach/WebSocket-for-Python
        Speaker: Mr Anton Rubtsov (IITP RAS)
      • 18:10
        Running Parameter Sweep Applications on Everest Cloud Platform 20m
        Parameter sweep applications are a very important class of applications, which is typically defined as a set of computational experiments over a set of input parameters, each of which is executed with its own parameter combination. These computations are becoming extremely important in science and engineering. As an example, one can explore the behavior of the airfoil by running its model multiple times, depending on its properties, such as speed, angle attack, shape and so on. Parameter sweep applications may require enormous amount of processor time. Therefore, this class of applications is an ideal class for distributed computing. The report presents a generic Parameter Sweep web service that runs such applications in distributed computing environment. The web service is built on Everest, which is a cloud platform that supports publication, sharing and reuse of scientific applications as web services. Its underlying approach is based on a uniform representation of computational web services and its implementation using REST architectural style. In contrast to traditional service development tools, Everest follows the Platform as a Service cloud delivery model by providing all its functionality via remote interfaces. A single instance of the platform can be accessed by many users in order to create, run and share services with each other without the need to install additional software on users’ computers. Another distinct feature of Everest is the ability to connect services with external computing resources. That means that service developer can provide computing resource for running service jobs. A service user can also override the default resource by providing another resource for running her jobs. In order to initiate the parametric computation, the user needs to submit necessary files, describing the experiment, through the web browser. These parametric computations require some input set of the experiment’s parameters and the computational model of the experiment, depending on these parameters. The presented web service generates computational tasks for each unique combination of the input parameters (typically their cartesian product, however the user could describe what these combinations need to be). If the computation succeeds, the result the user can download from the server is the archive with all of the tasks’ results. Also discussed are the possible scheduling strategies for all of the computational tasks, generated by the Parameter Sweep service. Each computing resource, provided by some user, has numerous characteristics like maximum number of computational tasks, allowed to run at the same time, total number of tasks, assigned to this resource, number of currently running tasks and others. Everest takes all of these stats into account when applying different scheduling strategies.
        Speaker: Mr Sergey Volkov (IITP RAS)
        Slides
    • 16:30 18:30
      Technical interchange meeting: Computing models, Software and Data Processing for the future HENP experiments 310

      310

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
    • 19:00 21:00
      Welcome party 2h
    • 09:30 11:00
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Dr Petr Zrelov (JINR)
      • 09:30
        Summary: Technical interchange meeting: Computing models, Software and Data Processing for the future HENP experiments 30m
        Slides
      • 10:00
        DIRAC services for EGI 30m
        The modern scientific projects require large amounts of computing resources to manage their data. The projects are often of international nature and have access to various types of resources distributed geographically and belonging to different computing infrastructures. Using these resources by a transparent aggregation for the users is a challenge, especially for relatively small scientific communites. The DIRAC Project provides a framework for building distributed computing systems with an easy access to grids, clouds, computing clusters and volunteer grids. It is now used by several large high energy physics and astrophysics experiments in the world. The DIRAC services are now also provided by several national grid computing infrastructures, in France, Spain, UK, Italy, China, etc. Recently the DIRAC service was also created for the users of the the EGI.eu project. The description of the DIRAC services for EGI as well as the first operational experience is presented in this contribution.
        Speaker: Dr Andrei Tsaregorodtsev (CPPM-IN2P3-CNRS)
        Slides
      • 10:30
        ARC-CE: updates and plans 30m
        ARC Compute Element is becoming more popular in WLCG and EGI infrastructures, being used not only in the Grid context, but also as an interface to HPC and Cloud resources. It strongly relies on community contributions, which helps keeping up with the changes in the distributed computing landscape. Future ARC plans are closely linked to the needs of the LHC computing, whichever shape it may take. There are also numerous examples of ARC usage for smaller research communities through national computing infrastructure projects in different countries. As such, ARC is a viable solution for building uniform distributed computing infrastructures using a variety of resources.
        Speaker: Dr Oxana Smirnova (Lund University)
        Slides
    • 11:00 11:30
      Coffee 30m
    • 11:30 13:10
      Plenary conference hall

      conference hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Dr Tatiana Strizh (JINR)
      • 11:30
        Recent developments in the contribution of DFCTI/IFIN-HH to the WLCG collaboration 30m
        The IT department of IFIN-HH coordinates, since 2006, the RO-LCG Tier2 federation, which is a consortium of five institutions that represents the Romanian participation in the Worldwide LHC Computing Grid (WLCG) collaboration. DFCTI has continuously provided support for three of the LHC experiments – Alice, Atlas and LHCb – in a global computing environment that has steadily evolved in accordance with the WLCG’s and EGI's requirements. DFCTI also operates the internet node through which five of the seven RO-LCG sites are connected to GEANT through the NREN. This report reviews the current status of the grid infrastructure developed by DFCTI and its role within the RO-LCG Tier2 federation. The measures implemented for the improvement of the data transfer, the solutions for managing multiple queues dedicated to specific tasks, and the strategy adopted to enhance the processing of the Atlas, LHCb, and Alice jobs are presented.
        Speaker: Dr Mihnea Dulea (IFIN-HH)
        Slides
      • 12:00
        The New Use of Network Element in ATLAS Workload Management System 20m
        A crucial component of distributed computing systems is network infrastructure. While networking forms the backbone of such systems, it is often the invisible partner to storage and computing resources. We propose to integrate Network Elements directly into distributed systems through the workload management layer. There are many reasons for this approach. As the complexity and demand for distributed systems grow. it is important to use existing infrastructure efficiently. For example, one could use network performance measurements in the decision making mechanisms of workload management systems. New advanced technologies allow one to programmatically define network configuration, for example SDN - Software Defined Networks. We will describe how these methods are being used within the PanDA workload management system of the ATLAS collaboration.
        Speaker: Mr Artem Petrosyan (JINR)
        Slides
      • 12:20
        Oracle Engineered Systems как реализация Grid архитектуры 30m
        Oracle Engineered Systems как реализация Grid архитектуры
        Speaker: Dr Aleksey STRUCHENKO (Jet Infosystems)
        Slides
    • 13:10 14:30
      Lunch 1h 20m
    • 14:30 16:00
      Distributed Computing with Everest 1h 30m 407

      407

      Tutors: Oleg Sukhoroslov, Sergey Volkov (IITP RAS) The ability to effortlessly reuse and combine existing computational tools and computing resources is an important factor influencing research productivity. Everest is a new distributed computing platform that addresses this problem by supporting publication, execution and composition of applications running across distributed computing resources. In contrast to traditional software, Everest follows the Platform as a Service cloud delivery model by providing all its functionality via remote web and programming interfaces. An application ported to Everest can be accessed via web user interface or unified REST API. The latter enables integration with external systems and composition of applications. Another distinct feature of Everest is the ability to run applications on arbitrary sets of external computing resources. A computing resource can be attached to the platform by any user. An application developer can bind one or multiple resources to an application. It is also possible to manually specify resources for a single application run. The tutorial will provide first-hand practical information about Everest, including: 1. General introduction 2. Adding (porting) applications to Everest 3. Running applications via web user interface 4. Attaching computing resources to Everest 5. Binding resources to applications 6. Using Python API to run and combine applications from Python programs 7. Running parameter sweep applications with Everest
      Speaker: Dr Oleg Sukhoroslov (IITP RAS)
      Paper
    • 14:30 16:00
      Section 1 - Technologies, architectures, models, methods and experiences of building distributed computing systems. Consolidation and integration of distributed resources conference hall

      conference hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 14:30
        A highly reliable data center network topology Tier 1 at JINR 15m
        Providing reliable Internet connection is the key to success of any data center. In the current paper questions about highly reliable network topology for data transfer between nodes in data center for Large Hadron Collider project Tier 1 in JINR are considered. The main modern protocols like SPB (Shortest Path Bridging) and TRILL (Transparent Interconnection of Lots of Links) for redundant topologies are compared. Also problems of communication between servers and switches are considered. The main purpose of the paper is to demonstrate the simplicity and practical utility of the projected documentation network topology.
        Speaker: Mr Andrey Baginyan (JINR)
        Slides
      • 14:45
        Опыт использования puppet для управления вычислительным ГРИД-кластером Tier-1 в НИЦ "Курчатовский институт" 15m
        Доклад посвящен организации системы управления кластером при помощи puppet. Рассматриваются вопросы безопасности использования, организации совместной работы, автоматизации различных процессов. Сравниваются различные подходы к созданию puppet сценариев.
        Speaker: Igor Tkachenko (NRC-KI)
        Slides
      • 15:00
        Опыт организации и использования дискового хранилища под управлением EOS в ГРИД-кластере Tier-1 в НИЦ "Курчатовский институт" 15m
        В докладе рассматривается ситема хранения данных EOS, с точки зрения системного администратора вычислительного центра. Обсуждаются вопросы установки, настройки, эксплуатации, выявления и устранения проблем.
        Speaker: Igor Tkachenko (NRC-KI)
        Slides
      • 15:15
        Синтез процессов моделирования и мониторинга для развития систем хранения и обработки больших массивов данных в физических экспериментах 20m
        Существующие в настоящее время экспериментально-физические системы сбора, передачи и распределённой обработки сверхбольших объемов информации базируются на общих принципах построения грид-инфраструктур. В силу своей сложности и высокой стоимости разработка таких систем требует предварительного их моделирования. В предыдущей работе авторов [1] описана программа моделирования, основанная на использовании языка GridSim [3] и алгоритмов планирования потока заданий ALEA [3]. Для запуска программы требуется задать состав и топологию центров обработки моделируемой грид-структуры, а также распределение ресурсов между заданиями. После этого программы выполняет имитационное моделирования процессов прохождения сгенерированного набора заданий через эту грид-структуру. В качестве результатов вычисляются временные оценки искомых параметров потока заданий. Однако постоянное развитие современных грид-систем требует непрерывных корректировок большинства параметров моделирования. Это необходимо для прогнозирования поведения системы при значительных ее изменениях с учетом статистики эксплуатации системы, получаемой на основе имеющихся программных средств ее мониторинга. В настоящей работе на основе данных мониторинга одной из грид-систем WLCG, сохраняемых в специально разработанной базе данных, через веб-интерфейс выполняется их статистический анализ, результаты которого позволяют затем генерировать адекватный поток заданий для изменения параметров моделирования. Представлены схема программы и примеры результатов моделирования. Список литературы. 1. В.В Кореньков, А.В. Нечаевский, В.В. Трофимов Разработка имитационной модели сбора и обработки данных экспериментов на ускорительном комплексе НИКА // Информационные технологии и вычислительные системы, 4, 2013, Стр. 37-44. 2. GridSim http://www.gridbus.org/gridsim/, 2012 3. D. Klusacek, L. Matyska, and H. Rudova. Alea - Grid scheduling simulation environment// In 7th International Conference on Parallel Processing and Applied Mathematics (PPAM 2007), volume 4967 of LNCS, pages 1029-1038. Springer, 2008.
        Speaker: Andrey Nechaevskiy (JINR)
        Slides
      • 15:35
        Основные направления развития информационных технологий в Азербайджане 25m
        В настоящее время в Азербайджане интенсивно развиваются информационные технологии. Одним из направлений таких технологий является грид (название возникло по аналогии с электрическими сетями — electric power grid) – компьютерная инфраструктура нового типа, обеспечивающая глобальную интеграцию информационных и вычислительных ресурсов. Грид сегмент в Азербайджане был создан в 2008 году при активной поддержке международных организаций ОИЯИ и CERN. Грид приобретает все большую популярность в научно-исследовательских и образовательных центрах Азербайджана. Среди основных направлений использования грид на данный момент можно выделить: научные исследования в физике высоких энергий, физике твердого тела, энергетике, астрофизике, биологии, науках о Земле, а также в медицине.
        Speaker: Mr Aleksey Bondyakov (JINR)
        Slides
    • 14:30 16:00
      Technical interchange meeting: Computing models, Software and Data Processing for the future HENP experiments 310

      310

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
    • 16:00 16:30
      Coffee 30m
    • 16:30 19:00
      Computing with Desktop Grids and Combined DCIs 2h 30m 407

      407

      Tutors: MAROSI, Attila Csaba (Institute for Computer Science and Control, Hungarian Academy of Sciences (MTA SZTAKI)) ZAIKIN, Oleg (ISDCT SB RAS) Part I. SZTAKI tools for desktop grids and combined distributed infrastructures (~ 1 hour) 1. Applications and Job Submission mechanisms for EDGeS@home 2. Use cases for SZTAKI DG tools: BioVeL (Biodiversity in Virtual e-Laboratory) and KOPI (Translated Plagiarism Search with help of Desktop Grids) 3. One-Click DG Infrastructure Deployment (Demo) 4. Presentation of the Desktop Grid Federation Technical Wiki for tools and use cases 5. Summary of the results of the first year of the IDGF-SP Desktop Grid project Part II. CluBORun tool (Cluster for BOINC Run) (~ 1 hour) 1. Description of CluBORun, a tool aimed at utilizing idle resources of computing clusters in volunteer computing projects based on BOINC will be presented. The key feature of CluBORun is that it utilizes only idle resources of computing clusters (just as BOINC-manager does it for computers) and uses only ordinary cluster’s user rights. 2. Demo of configuring and running CluBORun on a computing cluster. Part III. Discussion (~ 30 minutes)
      Speaker: Dr Mikhail Posypkin (ITTP RAS)
      Paper
    • 16:30 19:00
      Section 1 - Technologies, architectures, models, methods and experiences of building distributed computing systems. Consolidation and integration of distributed resources conference hall

      conference hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 16:30
        Activities and perspectives at Armenian Grid site 20m
        Armenian Tier-3 (AM-04-YERPHI) site at A. Alikhanyan National Laboratory (AANL) provides the computing and storage resources that allow to deal with the data produced by LHC (Large Hadron Collider). The use of Grid technologies facilitates an implementation of the distributed model for production and user analysis jobs, enables efficient use of the computing and storage resources by the various virtual organizations such as ATLAS, ALICE and ARMGRID.GRID.AM. The AANL site was upgraded to EMI3 in December last year. Many configuration problems that were found during the commissioning either got fixed or were provided with workaround procedures. But problems with the network still need further investigations. PerfSONAR (Performance Service Oriented Network monitoring Architecture) installation will give an opportunity to analyze and if possible to solve end-to-end performance problems. The contribution will give an introduction of the site and it network system. We will present the problems during commissioning, the current status and future plans that allows to optimize efficiency of the transfers and improve overall reliability of the site.
        Speaker: Hovhannes Oganezov (A. ALIKHANYAN National Laboratory)
        Slides
      • 16:50
        Model information interaction objects resonant transmission network and data 20m
        Electrical energy is the most convenient and demanded type of energy transferred from large power plants to many consumers. Outdated transmission lines and equipment of substations in some cases converted to heat losses up to a quarter of the generated power. Power transmission lines length of tens of thousands of kilometres able to create and maintain only very large corporations, naturally turn into non-alternative «natural monopolies». A competitive environment for a variety of retailers and consumers of electricity in the city, town, village, or even on the basis of geographically distributed resonance lines combined power transmission and data seems promising task of modern Russia.
        Speaker: Dr Yury Kryukov (University Dubna)
        Slides
      • 17:10
        Особенности управления данными в DIRAC 20m
        В работе рассматриваются особенности организации системы управления данными (DMS) программного продукта DIRAC в рамках китайского проекта BES III. Приводится описание устройства, функциональности и способов работы с сервисом передачи данных (Data transfer service) для экспериментов физики высоких энергий, которые требуют вычисления задач с широким спектром требований с точки зрения загрузки процессора, доступа к данным или памяти и непостоянной загрузкой использования ресурсов.
        Speaker: Olga Ustimenko (JINR)
        Slides
      • 17:30
        A DISTRIBUTED STORAGE SYSTEM WITH DCACHE 20m
        Works on creating a distributed high performance computing environment based on GRID technologies are under way at the Ural Branch of the Russian Academy of Sciences. One of the main components of this environment is a distributed data storage system (DSS), which aims at integrating storage systems in the regions of UB RAS. The system connects various resources, such as computing clusters, supercomputers and experimental setups of UB RAS institutes. Further the connection DSS to the GRID infrastructure NNN [1] and international Grid infrastructure WLCG [2] is planned. The approach to building territorial distributed storage system based on the dCache middleware from the European Middleware Initiative project [3] is presented. The first milestone of the implementation of DSS has been currently completed on four servers by Supermicro running Scientific Linux 6.5 and dCache 2.6 from repository of EMI. Usable storage capacity is 210 TB. The storage nodes are located in two computing centers: in IMM UB RAS, Yekaterinburg (3 nodes), and ICMM UB RAS, Perm. The computing centers are separated by a 400 km distance and are joined by a dedicated communication channel 10 GB/s; connection to DSS was performed using the NFS protocol version 4.1. The next stage will be attaching the experimental setups in ICMM UB RAS. The data obtained from them will be recorded to DSS and processed remotely by supercomputer "URAN", including the ability to process in real time and control the experiments. [1] GridNNN http://ngrid.ru [2] Worldwide LHC Computing Grid | WLCG http://wlcg.web.cern.ch [3] European Middleware Initiative http://www.eu-emi.eu/ Supported by the grant of UB RAS 12-P-1-2012 and by the RFBR grant 14-07-96001r_ural_a.
        Speaker: Mr Evgheniy Kuklin (IMM UB RAS)
        Slides
      • 17:50
        Computational task tracking complex in the scientific project informational support system 20m
        This work describes the idea of the system of informational support for the scientific projects and the development of computational task tracking complex. Due to large requirements for computational experiments the problem of presentation of the information about HPC tasks becomes one of the most important. Nonstandard usage of the service desk system as a basis of the computational task tracking and support system can be the solution of this problem. Particular attention is paid to the analysis and the satisfaction of the conflicting requirements to the task tracking complex from the different user groups. Besides the web service kit used for the integration of the task tracking complex and the datacenter environment is considered. This service kit became the main interconnect between the parts of the scientific project support system and also this kit allows to reconfigure the whole system quickly and safely.
        Speaker: Mr Nikolai Yuzhanin (Saint Petersburg State University)
        Slides
      • 18:10
        ATLAS Production System Top-level Layer to Manage Tasks 20m
        The ATLAS Production System (ProdSys) is responsible for processing of petascale data on the Grid. ProdSys – automated system for running jobs in the PanDA. The PanDA Production ANd Distributed Analysis system is a data-driven workload management system for production and distributed analysis. ProdSys performs an extremely important role being an additional level of abstraction for PanDA. The Production System originated in 2006 and now handles O(1M) tasks per year, each task transforms in many jobs. ProdSys evolves to accommodate a growing number of users and new requirements from ATLAS Physics groups. To improve the main characteristics of the system, such as flexibility, maintainability and ease of use, decided to develop a new system to meet current requirements – next generation of Production System, ProdSys2. ProdSys2 is a multilevel workflow management system for BigData processing that operates with user requests, tasks and jobs. Based on previous experience with managing of tasks the architecture of system is designed so that ProdSys2 consists of two major components representing different levels of data abstraction: DEFT (Database Engine for Tasks) and JEDI (Job Execution and Definition Interface). These components operate together: the first system manages user requests and tasks and the second manages jobs generated from tasks provided. Systems interact with each other according to the developed protocol. As top-level management interface of ProdSys2, DEFT provides unified access to the user to run different types of tasks, such as tasks for Physics (DPD Production and MC Production), data preparation (Data Reprocessing) and Trigger (High-level Trigger Reprocessing). DEFT supports both task workflows (task chains) and single tasks, easily adapts to new types of tasks and delivers enhanced management mechanisms for controlling of tasks. We present top-level management layer of next generation ATLAS Experiment Production System
        Speaker: Dr Dmitry Golubkov (Institute for High Energy Physics, Protvino)
        Slides
    • 16:30 19:00
      Section 8 - Оptimization problems and distributed computing 310

      310

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Prof. Alexander Afanasiev (IITP RAS)
      • 16:30
        Промежуточное программное обеспечение, предоставляющее контроль над балансировкой нагрузки уровню бизнес логики приложения 20m
        Независимые компоненты, взаимодействующие между собой при помощи комплексного управления, делают работу сложных распределенных вычислительных систем плохо масштабируемой в рамках имеющегося промежуточного коммуникационного программного обеспечения. Можно выделить две основные проблемы масштабирования таких систем: перегрузка неравноценных узлов из-за равномерного перераспределения нагрузки и сложности в реализации продолжительного взаимодействия нескольких узлов системы. В данной работе мы рассмотрели новый подход к перераспределению потоков сообщений, передаваемых между узлами. Основной технологической особенностью предлагаемого решения является применение бизнес логики системы для перераспределения нагрузки. Другими словами, решение о перенаправлении каждого нового сообщения принимается исходя из анализа имеющихся в системе ресурсов, будь то счетчики производительности или другие системы мониторинга. C точки зрения горизонтального масштабирования основной особенностью разработанной нами коммуникационной платформы является возможность расширения набора существующих шаблонов взаимодействия между узлами системы. Например, традиционный шаблон «Запрос-Ответ», описывающий разовое взаимодействие, может быть расширен до продолжительного управления одного узла другим. Необходимо отметить, что благодаря распределению нагрузки с применением бизнес логики конечной сервисной системы, использующей коммуникационную прослойку, такой шаблон взаимодействия узлов может корректно участвовать в распределении нагрузки между узлами системы. В работе проведено детальное сравнение разработанной системы с точки зрения производительности и отказоустойчивости с такими системами как ZeroMQ и RabbitMQ. Показаны особенности работы с шаблонами взаимодействия узлов, не описанными в традиционных средствах коммуникации. Работа выполнена при частичной поддержке гранта СПбГУ 9.37.157.2014, гранта СПбГУ 0.37.155.2014, гранта СПбГУ 9.38.674.2013, гранта РФФИ № 13-07-747. Исследования были проведены с использованием вычислительных ресурсов Ресурсного Центра "Вычислительный центр СПбГУ" (http://cc.spbu.ru).
        Speaker: Oleg Iakushkin (Saint-Petersburg State University)
        Slides
      • 16:50
        Implementation of the optimal trajectories continuation method in a distributed computing environment 20m
        The optimal trajectories continuation method implements the natural decomposition of the problem and allows us to reduce it to a sequence of modes (Cauchy problems for systems of ordinary differential equations). Each new mode is determined by the solution of special problems of mathematical programming. The problem is solved in the environment MathCloud.
        Speakers: Prof. Alexander Afanasiev (IITP RAS), Ms Elena Putilina (IITP RAS)
        Slides
      • 17:10
        An automated system for program parameters fine tuning in the cloud 20m
        Growing number of Infrastructure as a service (IaaS) providers we observe today is a direct effect of computation costs getting cheaper and of infrastructure automatization levels getting higher. Cloud services make it possible to automate more programmer's work making him more productive. It may be considered as another step in continuous process of adding more abstraction levels to a computer system: high-level programming languages, interactive debugging, automatic build systems, etc. For developers it allows for rapidly creating development and test sandboxes, quickly create virtual machines with needed software, testing load and scalability. There are lots of problems that can be automated by the use of clouds. One of such problems is fine tuning an algorithm to make it work better in some sense, for example, faster. It can be done in many ways: modifying hard coded parameters inside the program, smart analysis of the program's source code, adjusting parameters inside configuration files of program's modules. In our study we have chosen the last described way: fine tuning configuration parameters of the SCIP (Solving Constraint Integer Programs) solver. SCIP [1] is currently one of the fastest non-commercial solvers for mixed integer programming (MIP) and mixed integer nonlinear programming (MINLP). It is also a framework for constraint integer programming and branch-cut-and-price. It allows for total control of the solution process and the access of detailed information down to the guts of the solver. Although SCIP is a very fast solver even with default parameters it should be possible to fine tune the parameters for one's work. It is quite simple if there are a couple of parameters and a not many test problems. However SCIP is very configurable having more than a thousand parameters. Apparently having such a large set of configuration parameters makes fine tuning it quite time consuming. That is why we tried to automate this process making a system choosing best configuration options for a set of problems. Due to vast number of SCIP runs needed we had to use a cloud to make the process quick. As a result of the study the system described was made. It uses Vagrant [2] for virtual machine management, Simple Linux Utility for Resource Management (SLURM) [3] for batch job processing, Python [4] for automation, Virtualbox [5] for debugging and DigitalOcean [6] as a cloud provider. It was tested on a number of problem classes and several-fold speedup was shown: SCIP was solving problems two times faster on the average. The results can be easily extended on other solvers. We can hook up another solver on demand. The system is planned to be made accessible on the Web. The Web front end is under development. In conclusion we expect that the service would be quite popular among SCIP users. Another conclusion is that cloud computing is very convenient and cheap nowadays which is definitely a good driver for developing new and nonconventional approaches. [1] Tobias Achterberg, SCIP: solving constraint integer programs, Mathematical Programming Computation, volume 1, number 1, 2009, pp. 1–41. [2] Vagrant, http://www.vagrantup.com/ [3] Yoo, Andy B., Morris A. Jette, and Mark Grondona. "SLURM: Simple linux utility for resource management." Job Scheduling Strategies for Parallel Processing. Springer Berlin Heidelberg, 2003. [4] Sanner, Michel F. "Python: a programming language for software integration and development." J Mol Graph Model 17.1, 1999, pp. 57-61. [5] Oracle VM VirtualBox, https://www.virtualbox.org/ [6] DigitalOcean cloud hosting, https://digitalocean.com/
        Speaker: Mr Sergey Smirnov (Institute for Information Transmission Problems of the Russian Academy of Sciences)
        Slides
      • 17:30
        High-level optimization modeling software in distributed computing environment 20m
        Heterogeneity of optimization software (solvers and interpreters of algebraic modeling languages for optimization, e.g. AMPL, GAMS etc.) and available computing infrastructure is one of reasons complicating wide practical usage of optimization models in distributed computing mode. The problem is far from completion despite an intensive work on the subject (one of the most mature is a COIN-OR Optimization Services project [1]). In the report we present two use cases of AMPL-interpreter capabilities in distributed computing infrastructure (AMPL [2] – is one of the most popular high-level optimization modeling system). We use off-the-shelf AMPL-compatible solvers due to the expertise encapsulated in these highly tuned libraries of optimization numerical methods. The first use case concerns running any optimization algorithm written as an AMPL-script in distributed mode, when all problems (including intermediate sub-problems) are solved by remote optimization REST-services based on off-the-shelf AMPL-compatable solvers; independent problems will be solved in parallel, thus increasing overall performance in according with the number of available solvers. The approach is based on MathCloud software toolkit [3], MathCloud Python API and AMPL-interpreter feature to interact with Bash-shell. The second use case demonstrate solving of complex discrete optimization problems (i.e. MILP) by “coarse-grained” parallel scheme of branch-and-bound algorithm (B&B). The approach is based on preliminary analysis and decomposition of the given problem into a number of sub-problems by some special AMPL-script. Then all these subproblems are solving in parallel by a number of MILP-solvers “embedded” in a special distributed system. This system provides exchange of B&B “incumbents” (the best known feasible solution found in the branching tree) between solvers. This exchange accelerates the search of optimal solution of the initial MILP-problem. Uses cases, mentioned above, are demonstrated by the examples of decomposition algorithms written as AMPL-scripts and solving some discrete optimization problems (Traveling Salesmen Problem and Tasks-Workers Scheduling problem). [1] Fourer R., Ma Jun, Martin K. Optimization Services: A Framework for Distributed Optimization // Operations Research. 2010, vol. 58, pp. 1624-1636 [2] Fourer R., Gay D.M., and Kernighan B.W. AMPL: A Modeling Language for Mathematical Programming. Thomson/Brooks/Cole, 2003, 517pp. [3] Afanasiev A., Sukhoroslov O., Voloshinov V. MathCloud: Publication and Reuse of Scientific Applications as RESTful Web Services // Victor E. Malyshkin (Ed.): Parallel Computing Technologies (12th International Conference, PaCT 2013, St. Petersburg, Russia, September 30 — October 4, 2013). Lecture Notes in Computer Science Volume 7979. Springer 2013. pp. 394-408 Supported by the Russian Foundation for Basic Research (grant # 13-07-00987)
        Speaker: Mr Vladimir Voloshinov (Institute for Information Transmission Problems RAS)
        Slides
      • 17:50
        Customizable system for coarse-grained parallel schemes in branch-and-bound algorithm for discrete optimization 20m
        One of the main methods for solving discrete optimization problems is branch-and-bound. A branch-and-bound algorithm consists of a systematic enumeration of all candidate solutions, where large subsets of fruitless candidates are discarded en masse, by using upper and lower estimated bounds of the quantity being optimized. One of the ways to speed up an algorithm is to parallelize it. In case of branch-and-bound it is can be achieved on lower level by parallelizing some parts of the algorithm, for example computing lower bounds concurrently. This would be fine-grained parallelization. On the other hand, coarse-grained parallelization can be made by running a set of branch-and-bound algorithms with different parameters concurrently. Or by dividing the problem on a set of subproblems e.g. by fixing some of integer variables, and solving them in parallel. In this study we examine the coarse-grained approach to parallelization implemented using existing mixed integer programming solver Cbc [1]. Cbc (Coin-or branch and cut) is an open-source mixed integer programming solver written in C++. It can be used as a callable library or using a stand-alone executable. In our approach we have the problem to be solved in the form of an AMPL stub [2]. The initial problem is divided on a set of subproblems by fixing some of integer variables by adding additional constraints to the stub. As a result we have 2^N AMPL stubs where N is the number of fixed variables. Next, every subproblem's stub is passed to CBC. At this step a simple control system written in Erlang [3] orchestrates the solution process by running CBC solver instances on a number of remote machines. Each CBC instance solves a single subproblem. Every time a solver finds a new incumbent, it is passed to the control system which broadcasts it to other instances. After receiving a new incumbent from the outside, solver uses it to discard search tree nodes during branch-and-bound more efficiently. Finally, after all subproblems were solved, control systems returns the best incumbent which is the solution of the whole problem. If all subproblems were proved to be infeasible, then the whole problem is infeasible too. The system was tested on the traveling salesman problem and a noticeable speedup was shown. Furthermore there is a multi-threaded version of CBC solver which crashes on some of the problems which are solved successfully by our parallel system. However even a single-threaded SCIP solver [4] was performing better than the parallel system presented in the study. Therefore it may be useful to also integrate SCIP in the system. Another possibility for system's customization may be starting solvers with different configuration parameters which may significantly change the solver's behavior. [1] J. Forrest, and R. Lougee-Heimer, CBC user guide, INFORMS Tutorials in Operations Research, 2005, pp. 257–277. [2] R. Fourer, D.M. Gay, and B.W. Kernighan, AMPL: A Modeling Language for Mathematical Programming, second edition, Duxbury Press / Brooks/Cole Publishing Company, 2002. [3] F. Cesarini, and S. Thompson, Erlang Programming, O’Reilly Media, Inc., 2009. [4] T. Achterberg, SCIP: solving constraint integer programs, Mathematical Programming Computation, volume 1, number 1, 2009, pp. 1–41.
        Speaker: Mr Sergey Smirnov (Institute for Information Transmission Problems of the Russian Academy of Sciences)
        Slides
      • 18:10
        Solving large scale optimization problems on desktop grids and combined distributed infrastructures 20m
        Many global optimization problems need huge computational resources for their resolution thus making use of HPC resources inevitable. In the talk we give a brief overview of existing approaches to parallelization of global optimization algorithms. Then we explain why traditional approaches well tested on multicore servers and computational clusters fail for such complex systems as desktop grids and combined distributed computational infrastructures. We conclude with the outline of existing technologies and best practices of using such type of resources in numerical global optimization.
        Speaker: Dr Mikhail Posypkin (ITTP RAS)
    • 09:30 11:10
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 09:50
        The activity of Russian Chapter of International Desktop Grid Federation 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        Almost a year ago at BOINC:FAST conference (Petrazavodsk, Karelia) the Russian desktop grid community agreed to organize Russian Chapter of International Desktop Grid Federation (desktopgrid.ru). The advisory board was elected and the activity plan was approved. In this talk we present a report of the activity of our chapter, list concrete results obtained with its help and outline our future plans. In particular the talk will cover tools created as a result of joint efforts of Russian desktop grid community and cooperation among scientific and volunteer communities.
        Speaker: Dr Mikhail Posypkin (ITTP RAS)
      • 10:10
        Tier-1 for ALICE, ATLAS & LHCb at the Kurchatov Institute (NRC KI). Current status. 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        The review of the distributed computing infrastructure of the Tier-1 at the Kurchatov Institute for the Alice, ATLAS and LHCb experiments at the LHC is given. The special emphasis is placed on structure of the resource center and its current status.
        Speaker: Mr Yury Lazin (NATIONAL RESEARCH CENTRE "KURCHATOV INSTITUTE")
        Slides
      • 10:30
        JINR TIER-1-Level Computing System for the CMS Experiment at LHC: Status and Perspectives 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        The status and perspectives of the Tier1 CMS center in JINR, which was initiated by the project “Creation of an automated system for data processing of LHC experiments at Tier1 level and provision of grid-services for distributed analysis of these data”, within the federal target program (FTP) of the RF Ministry of Education and Science “Research and developments on priority directions of the development of the scientific and technological complex of Russia on the years 2007-2013” were presented. The September 28, 2012 session of the WLCG Supervisory Council adopted the plan of creating a Tier1-level center in Russia. The project foresees a steep gradual implementation. The first stage ended on December, 2012. A Tier1 prototype was created at NRC “Kurchatov Institute” and at JINR. The next stage (November 2014) provides the final equipment of the complex and commissioning of the full-scale Tier1 center in JINR. Subsequently, it is necessary a regular increase of the computing capacities and data storage systems of the center in accordance with the needs of LHC experiments under the provision of 100% reliability and availability. Such parameters of reliability and availability can be provided uniquely by the creation of a top engineering infrastructure (uninterrupted power supply, climate control) together with a high-speed reliable network infrastructure over dedicated reserved data links to CERN (LHCOPN).
        Speaker: Dr Tatiana Strizh (JINR)
        Slides
      • 10:50
        High-Performance and Grid Computing at INCDTIM, Cluj-Napoca, Romania 20m
        The rapid pace of the worldwide advances in computing and communication technologies has entailed, during the last years, dramatic changes of the nature of the scientific research itself. While the high performance parallel computing of the past asked for expensive and sophisticated computing architectures, the rapidly increasing availability, during the last decade, of many-core CPU and GPU architectures and of cloud services have strongly pushed the development of the parallelism as an essential way of making effective the available hardware. The National Institute for Research and Development of Isotopic and Molecular Technologies (INCDTIM) is making steady efforts to become a visible player in this process. For the time being, it hosts a TIER2 grid site (RO-14-ITIM) supporting the WLCG ATLAS VO, as well as a 7 TFlop parallel cluster serving to the study of different topics of interest in physics, chemistry and biology. The present report is devoted to the description of the hardware implementations and performance and to the discussion of a few selected significant scientific achievements.
        Speaker: Dr Calin Gabriel Floare (National Institute for R&D of Isotopic and Molecular Technologies, Cluj-Napoca, Romania)
        Slides
    • 11:10 11:30
      Coffee 20m
    • 11:30 13:20
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Dr Oxana Smirnova (Lund University)
      • 11:30
        BIG DATA TRANSFER OVER COMPUTER NETWORKS 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        In many cases there is the need to transfer the Big Data from one point of computer network to another point. Quite often those points are far away from each other. The transfer time is significant factor to transfer the Big Data. During this time the features of the data link might be changed drastically including interruptions of channel operation once or more times during data transfer. There are a number of known utilities/systems which are used for Big Data transfer. The authors investigate which utilities/systems are more suitable for Big Data transfer and which are most important architecture features for such the systems. It is of interest the comparison study of the data transfer methods. The testbed is developed to compare the data transfer utilities and study how Software Defined Networks (SDN) approach affects the Big Data transfer. The development of the testbed is discussed as well.
        Speaker: Prof. Andrey SHEVEL (University of Information Technologies Mechanics and Optics (ITMO))
        Slides
      • 11:50
        IHEP Tier-2 Computing Centre evolution 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        RU-Protvino-IHEP site is the one of three biggest WLCG Tier-2 centers in Russia. The computing infrastructure serves for big four high energy physics experiments such as Atlas, Alice, CMS, LHCb. After a few years of regular investments into the center computing hardware, network infrastructure, cooling and electrical infrastructure IHEP becomes very powerful and reliable site. In 2013 new computing resources were put into operation. The computing power of the cluster was enlarged 2.8 times and the total capacity of the disk space was increased by 2.3 times. In this presentation the evolution of the computing center capacities and networking will be shown as well as its contribution to the collaboration experiments.
        Speaker: Dr Victor Gusev (Institute for High Energy Physics)
        Slides
      • 12:10
        RDMS CMS Computing: Current Status and Plans 15m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        The Compact Muon Solenoid (CMS) is a high-performance general-purpose detector at the Large Hadron Collider (LHC) at CERN. More than twenty institutes from Russia and Joint Institute for Nuclear Research (JINR) are involved in Russia and Dubna Member States (RDMS) CMS Collaboration. A proper computing grid-infrastructure has been constructed at the RDMS institutes for the participation in the running phase of the CMS experiment. Current status of RDMS CMS computing and plans of its development to the next LHC start in 2015 are presented.
        Speaker: Dr Elena Tikhonenko (JINR)
        Slides
      • 12:25
        Alice computing update befor run 2 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        The report presents a number of news and updates of the ALICE computing for RUN 2 and RUN 3. This includes: - implementation in production of a new system EOS; - migration to the file system CVMFS to be used for storage of the software; - the plan for solving the problem of "Long-Term Data Preservation"; - overview of the concept of "O square", combining offline and online data processing'; - overview of the existing models to use the virtual clouds for ALICE data processing. Innovations are shown on the example of the Russian sites. These updates and new concepts will ensure the efficient storage, access, and processing of increased amounts of ALICE data expected in runs 2 and
        Speaker: Mr Andrey Zarochentsev (SPbSU)
        Slides
      • 12:45
        Workload Management System for Big Data on Heterogeneous Distributed Computing Resources 15m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        Many research areas in the natural sciences face unprecedented computing challenges. For example, experiments at the Large Hadron Collider (LHC) use heterogeneous resources which are distributed worldwide, thousands of scientists analyzing the data need remote access to hundreds of computing sites, the volume of processed data is beyond the exabyte scale, and data processing requires billions of hours of computing usage per year. The PanDA (Production and Distributed Analysis) system was initially developed to meet the scale and complexity of LHC distributed computing for the ATLAS experiment. In the process, the local batch job paradigm of computing in HEP was discarded in favor of a far more flexible and scalable model. The success of PanDA at the LHC is leading to adoption and testing by other experiments. PanDA is the first exascale workload management system in HEP, already operating at a million computing jobs per day, and processing over an exabyte of data every year. In 2013 we started the project titled ‘Next Generation Workload Management and Analysis System for Big Data’ to expand PanDA to additional computing resources, including opportunistic use of commercial and academic clouds and Leadership Computing Facilities (LCF). Extending PanDA to clouds and LCF presents new challenges in managing heterogeneity and supporting complex workflows. We will describe the design and implementation of PanDA, present data on the performance of PanDA, and discuss plans for future evolution of the system to meet new challenges of scale, heterogeneity and increasing user base.
        Speaker: Mr Danila Oleynik (JINR/UTA)
        Slides
      • 13:00
        LHCOPN/LHCONE: first experiences in using them in RRC-KI 20m Conference Hall

        Conference Hall

        LIT JINR

        Russia, 141980 Moscow region, Dubna, JINR
        We will share our experience with LHCOPN and LHCONE networks, describe main characteristics of these networks, including their topology, operational practices and types of use, and will provide an overview of our experience for using these WLCG-dedicated network resources in RRC-KI Tier-1 and Tier-2 Grid centres.
        Speaker: Dr Eygene Ryabinkin (NRC Kurchatov Institute)
        Slides
    • 13:20 14:30
      Lunch 1h 10m
    • 14:30 19:00
      Desktop grid technologies and volunteer computing 407

      407

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      Convener: Dr Mikhail Posypkin (ITTP RAS)
      • 14:30
        Defining Volunteer Computing: a Formal Approach 20m
        The International Desktop Grid Federation supports the operation, integration, and exploitation of various flavors of CPU scavenging distributed research infrastructures starting from private Desktop Grids (e.g. operated by University of Westminster), through to so-called City Grids such as AlmereGrid, and ending with large-scale public volunteer computing project including EDGeS@home. Desktop grids and volunteer computing utilize the idle computing cycles of desktop computers to solve embarrassingly parallel type of compute-intensive problems, such as Monte Carlo simulations or Master-Worker type applications. Publicly operated ones using mostly volunteer resources are referred as volunteer computing, or recently as “crowd computing”. Contrary, private desktop grids are operated within an organization (university or company) using their computing resources and applying their local policies. Volunteer computing resembles private desktop grids whereas desktop grids are not fully equivalent to volunteer computing. There are several attempts to distinguish and categorize them using informal and formal methods. However, most formal approaches model a particular middleware and do not focus on the general notion of volunteer or desktop grid computing. This paper makes an attempt to describe some best practices (examples) and also to formalize their characteristics and relationship. To this end formal modeling is applied that tries to grasp the semantic of their functionalities – as opposed to comparisons based on properties, features, etc. We apply this modeling to formalize the BOINC volunteer computing system. The result of this work is a formal model of BOINC that aims at serving as a foundation for formalizing other volunteer computing systems and helps categorizing existing middleware. The model is developed using the abstract state machines (ASMs) framework and builds on a model that formalized (service) Grid Computing in general.
        Speaker: Mr Attila Csaba Marosi (Institute for Computer Science and Control, Hungarian Academy of Sciences (MTA SZTAKI))
      • 14:50
        Optimizing replication policy in Desktop Grid in case of batch task service 20m
        Desktop Grid is a simple, yet efficient alternative to high-performance computing cluster for certain types of computational problems (mainly when there is no communication needed between computation nodes). Volunteer computing may help the researchers achieve high computational power in the cheapest way. The known drawback of such an approach to performing calculations is instability of computational power in a Desktop Grid (the number of nodes in a Grid and their temporal availability are unstable). This leads to replication-based approach in task service, when a single workunit with the same data is transmitted by a server to a number of nodes. This increases redundancy and, while improving the probability of a successful result in time, lead to waste of resources, proportionally increasing the computational time of the project. Among the most probable causes of a failure of workunit calculation is violation of the so-called deadline. This means that a node was too busy with other tasks (Desktop Grid calculations have lower priority in operating system). In case of such a failure the server has to retransmit the same workunit to another node (a number of such trials is often limited). Moreover, in some cases the nodes of a Desktop Grid might be non-confident, that leads to a mechanism of quorum (when the server waits for a certain number/percent of identical results before marking a workunit as "done"). A mathematical model of such calculations is presented for the case of quorum mechanism, non-zero deadline violation probability, replication and batch service (when a workunit consists of several tasks for the same input data). The conditions are found when the optimal replication leads to lowering the time of the project completion. Note that for the case of batch service prohibited (single task in a single workunit) replication always extends the time of project completion.
        Speaker: Mr Alexander Rumyantsev (Institute of Applied Mathematical Research, Karelian Research Centre of RAS)
      • 15:10
        Review of the main results of Institute of Applied Mathematical Research, KRC of RAS in the domain of Desktop Grids 20m
        The report gives a review of some of the main recent results of a researches on Desktop Grids that have been performed in the Institute of Applied Mathematical Research of Karelian Research Centre, RAS. The talk addresses the following topics: *mathematical models of Desktop Grids and consequent optimizations; *Enterprise Desktop Grids; *virtual screening in the BOINC-based Enterprise Desktop Grid of the Department of Dermatology, University of Lübeck and the Institute of Applied Mathematical Research, KRC RAS; *conferences BOINC:FAST'2013 and BOINC:FAST'2015; *BOINC-based data mining; *mechanisms of interaction between a BOINC-based Desktop Grid and a computing cluster. The work is supported by grants of RFBR 13-07-00008, 13-07-98801 and 14-07-31007.
        Speaker: Mr Alexander Rumyantsev (Institute of Applied Mathematical Research, Karelian Research Centre of RAS)
      • 15:30
        NETMAX@HOME THE PROJECT OF THE VOLUNTARY DISTRIBUTED COMPUTING 30m
        For researches in the field of imitating modeling of telecommunication networks the project of [1] voluntary distributed computing NetMax@home was created. The project was created on the BOINC platform. At a stage of internal testing and at a project definition phase to public access some features of functioning of the project of the voluntary distributed computing without which efficiency of calculation significantly decreased were revealed, and popularity of the project was small. Certain factors significantly influenced involvement of new users and preservation of loyalty of active users in the project of voluntary computing. Such factors as the publication of new information on a project website, support of existence of a large number of the tasks ready to sending, providing feedback are key when ensuring operability of the project. Completion of the settlement module according to the revealed features was required. It is possible to carry a preliminary estimate of time of calculation of a work unit, formation of results of calculations of a certain size, desirable use of control points and tracking to such features. After several tests planning of experiment was corrected and were undertaken a number of steps for acceleration of calculation of a totality of tasks of experiment. [1] Ilya I. Kurochkin: Results of work of the Netmax project on the BOINC platform on modeling of functioning of telecommunication networks. / Conference BOINC:FAST-2013, Russia, Petrozavodsk. 9-13 september 2013. (http://boincfast.ru/papers/kurochkin.pdf)
        Speaker: Ilya Kurochkin (IITP RAS)
        Slides
      • 16:00
        Coffe 30m
      • 16:30
        Voluntary distributed computing for solving discrete combinatorial optimization problems using Gerasim@home project 20m
        There is a fairly wide class of problems relating to discrete combinatorial optimization. Among them there are the problems of fundamental and applied orientation. The first one of them contains a number of problems on graphs, the problems of mathematical programming, operations research, etc. Many problems arise in the second direction of different fields of science (for example, trace interconnect for printed circuit boards and integrated circuits, economic planning, etc.) and can be reduced to problems of the first destinations with minor modifications. Among a great deal of problems the most principal ones are within NP class which can’t be solved precisely using fast polynomial algorithms providing an optimal solution. For some problems with polynomial time complexity algorithms (for example, assignment problem solved by Hungarian algorithm) with increasing dimension the necessary costs of computing time also become prohibitive. The way out of this situation is the use of various heuristic methods that provide different quality of the obtained solutions and need different costs of computing time. In light of recent development trends in computing and telecommunications the most actual direction is based on using parallel computing systems of different classes. Many iterative heuristic methods for solving combinatorial problems have good potential for parallelization that successfully allows their use in conjunction with parallel computing. A lot of iterative methods are weak binding that allows efficient use of grid systems with heterogeneous structure and weak communication subsystem. Within voluntary distributed computing project Gerasim@home based on increasingly popular BOINC platform different computational experiments are produced aimed at finding out the optimal areas of applicability of various heuristics combinatorial optimization methods. Within the last two years calculations were performed which made it possible to determine the areas of applicability for a number of consecutive methods (S.I. Baranov method, method of parallel-sequential decomposition, method based on greedy adjacent strategy) to the problem of searching for separations of graph schemes of parallel algorithms arising during logical multicontrolles design. A strong dependence of solutions quality on the dimension of the problem and on the composition and strength of restrictions was shown. During the performed experiments borders of bend were obtained, which allowed to establish the boundaries of the insensitivity of different methods to different restrictions which made it possible to formulate a number of conclusions and recommendations for structural and parametric optimization of logic control systems. During the calculations within the project real performance made up about 2–2,5 TFLOPS that was provided by more than 1,300 volunteers from 69 countries, attracted more than 900 personal computers. Currently the project studies a group of iterative methods, which include random and directed random searches, ant colony optimization and simulated annealing methods. These methods require at least by 1-2 orders more computing time costs because of the need to organize an iterative process. In addition, they have some specific features, for their studying the problem of finding the shortest path in a graph is used as a test one. Work supported by the state assignment for the Southwest State University for 2014-2017, research number 2246, and by the scientific school НШ-2357.2014.8.
        Speaker: Eduard Vatutin (Southwest State University)
      • 16:50
        EFFICIENT IMPLEMENTATION OF BRANCH-AND-BOUND METHOD ON DESKTOP GRIDS 20m
        Many problems from the areas of operations research and artificial intelligence can be defined as combinatorial optimization problems. Branch-and-bound method (B&B)is a universal and well known algorithmic technique for solving problems of that type.The root of the tree is the original problem, and the other nodes represent subproblems to be solved. Though algorithm considerably decreases the computational time required to explore the entire solution space, the running time remains unbearable.Using parallel or distributed processing is one of the most popular ways to resolve this issue. The implementation of B&B algorithms on parallel machines was studied in numerous papers. All these solvers are based on parallel computation frameworks that are flexible and only useful for tightly coupled or shared memory distributed systems. Over the last decade we observe an emergent growth of a new HPC platform volunteer computing grids or desktop grids (DGs). Unlike conventional parallel computers this platform has not been sufficiently explored as a target for branch-andbound methods. DGs are highly dynamic and heterogeneous distributed computing platform. BOINC [5] is one of typical DGs platforms, which been developed by a team based at the Space Sciences Laboratory (SSL) at the University of California. It was originally developed to support the SETI@home [6] project before it became useful as a platform for other distributed applications in areas as diverse as mathematics, medicine, molecular biology, climatology, and astrophysics. BOINC has become widely popular recently, in both theory and practice. Devising an efficient B&B implementation for BOINC is a challenging and practically important problem. The approach proposed in our paper addresses this issue. We implemented a branch-and-bound solver for the NP-hard 0-1 knapsack problem. The classical knapsack problem is defined as follows. Given a set of n items, each item j having an integer profit j and an integer weight one need to choose a subset of items such that their overall profit is maximized, while the overall weight does not exceed the given capacity c. It worth noting that our approach is not specific to the knapsack problem, after functional verification, we will use our distributed branch and bound method to solve practical problems. The knapsack problem was chosen as one of the most basic and well-studied optimization problems for illustrative purposes.
        Speaker: Mr Bo Ye Tian (Lomonosov Moscow State University)
        Slides
      • 17:10
        Application of cloud technologies for learning Desktopgrid Systems 20m
        Currently Desktopgrid Systems gain popularity. For this reason, it becomes urgent question of the training of specialists in this field. Training of specialists in this field involves practical exercises. Practical training requires the creation of educational infrastructure. Application of cloud computing technologies to create educational infrastructure allows to automate the process of creating, deploying and configuring layouts educational servers. For practical training on grid systems of personal computers within the Faculty of Computational Mathematics and Cybernetics Lomonosov’s Moscow State University was introduced cloud technology Xen Cloud Platform. To automate the configuration of IP-addresses and domain names of virtual machines used mechanism for dynamically assigning IP-address and domain name for MAC-address of the virtual machine. MAC-address is set by means of educational infrastructure creating a new virtual machine instance. Further development of the training involves the use of cloud infrastructure to create educational infrastructures of various types. First, is use to create a training for other implementations of Desktopgrid Systems. Second, is the use of cloud infrastructure to create virtual clusters of various types. Third, is the use of cloud technologies for learning technology service grid systems.
        Speaker: Dr Nikolay Khrapov (IITP RAS)
        Slides
      • 17:30
        Solving weakened cryptanalysis problems of Bivium cipher in the volunteer project SAT@home 20m
        A lot of important combinatorial problems (from areas of formal verification, planning, cryptology, etc.) can be effectively reduced to Boolean satisfiability problem (SAT). Despite remarkable progress in theory practical solving of many real-life SAT instances remains unmanageable on traditional PCs. Volunteer computing project SAT@home was launched to solve such hard instances. Analysis of stream ciphers is quite important area of cryptology. Bivium stream cipher consists of 2 shift registers (93 and 84 cells). Below we use the notation BiviumK to denote a weakened problem for Bivium with known values of K variables (in corresponding SAT problem) encoding last K cells of the second shift register. We used computing cluster to find a variant of decomposition with good time estimations. An experiment based on this decomposition was lauhcned in SAT@home to solve weakened Bivium10 problems. During 3 months 3 problems were successfully solved. As far as we known there are no publicly available results of cryptanalysis of weakened Bivium problems.
        Speaker: Mr Oleg Zaikin (Institute for System Dynamics and Control Theory of Siberian Branch of Russian Academy of Sciences)
        Slides
      • 17:50
        Tool for utilizing idle resources of computing clusters in volunteer computing 20m
        In the last 10 years a significant progress in volunteer computing was achieved mainly due to the improvement of the open BOINC platform. There are volunteer computing projects based only on desktop PCs that have performance greater than 1 PFLOPs. Despite this fact there are some reasons why resources of computing clusters can be useful in volunteer computing. Firstly, a computing cluster is quite reliable device, so results obtained on it can be taken as a reference when checking the results. Secondly, computing cluster can significantly help to increase performance of a new volunteer project with low amount of participants. We have implemented a CluBORun tool (Cluster for BOINC Run) aimed at utilizing idle resources of computing clusters in volunteer computing projects based on BOINC. The key feature of CluBORun is that it utilizes only idle resources of computing clusters (just as BOINC-manager does it for computers) and uses only ordinary cluster’s user rights. When tasks from another user appear in a cluster queue, CluBORun stops BOINC tasks in queue if new tasks can be launched on freed resources. The CluBORun tool was launched on the computing cluster MVS-100k (Joint supercomputer center of RAS) on December 2013 to include the resources of this cluster in volunteer computing project SAT@home. As a result the performance of the project increased by 40 % in some periods of time. At the moment CluBORun can work with the Cleo and the SUPPZ job scheduler systems. We plan to make a version for the SLURM system in the nearest future.
        Speaker: Dr Oleg Zaikin (ISDCT SB RAS)
        Slides
      • 18:10
        RESEARCH OF PREFERENCES OF PARTICIPANTS OF THE VOLUNTARY DISTRIBUTED COMPUTING 20m
        The voluntary distributed computing unite hundreds thousands people worldwide. There are thousands associations (teams) of volunteers. Hundreds scientific groups use voluntary computing capacities for receiving results in various areas of science. However, the questions connected with motivation of volunteers, the reasons of a choice of projects, withdrawal from voluntary calculations practically weren't investigated. In this regard it was decided to carry out questioning which is made for the purpose of the help to new scientific projects. The main problems of the organization of works on projects were revealed and the actions necessary at deployment and maintenance of projects are defined.
        Speakers: Ilya Kurochkin (IITP RAS), Prof. Vladimir Yakimets (IITP RAS)
        Slides
      • 18:30
        Параллельное представление локального элиминационного алгоритма для ускорения решения разреженных задач дискретной оптимизации 20m
        Предлагается параллельная версия локального элиминационного алгоритма (ЛЭА) для платформы распределённых вычислений BOINC. Рассматривается поэтапное решение разреженных задач дискретной оптимизации с помощью параллельного ЛЭА, а также выделение видов распараллеливания, свойственных ЛЭА. Выделяются процессы, необходимые для работы ЛЭА в контексте парадигмы Директор-Мастер-Рабочий. Модели многих задач, возникающих на практике, можно представить в виде задач дискретной оптимизации (1): задачи теории расписаний, задачи маршрутизации, задачи оптимизации производства и многие другие. Сложность таких задач заключается в том, что они зависят от большого числа переменных, поэтому для их решения естественно использовать алгоритмы, которые не обладают экспоненциальной сложностью, но при этом дают точное решение. В этом смысле интересными являются локальные элиминационные алгоритмы (ЛЭА), которые разбивают большую задачу на подзадачи и элиминируют переменные, понижая тем самым величину перебора [1]. (1) Для его работы кроме данных самой задачи – целевой функции, матрицы и вектора ограничений, необходим порядок элиминации, который указывает, каким образом будут исключаться переменные в задаче. Для этого нужно построить элиминационное дерево задачи (ЭД), которое строится из гиперграфа задачи при помощи некоторого критерия элиминации, связанного с характером задачи. Перспективным алгоритмом построения ЭД является древовидная декомпозиция [2]. Для разветвлённого ЭД имеет смысл применять технологию распараллеливания, так как подзадачи, находящиеся на одной высоте дерева, являются независимыми. Такой вид распараллеливания будем называть древовидным распараллеливанием. Рассмотрим подзадачу, соответствующую вершине ЭД. Она имеет блочную структуру, так как первичная задача была разреженной. Блоки такой подзадачи слабо связные, поэтому имеет смысл разбивать такие блоки, перебирая переменные, которые являются сепараторами этих блоков. Такой вид распараллеливания будем называть блочным. ЛЭА дважды проходит по ЭД. Прямой ход ЛЭА решает подзадачи и сохраняет промежуточные решения, а обратный ход ЛЭА анализирует и собирает решения подзадач. При параллельной трактовке ЛЭА необходимо, чтобы были следующие процессы: 1) процесс, который анализирует элиминационное дерево и выявляет подзадачи на данном уровне дерева; 2) процесс, который распределяет подзадачи; 3) процесс, который решает подзадачи; 4) процесс, который анализирует подзадачи, записывает результат и создаёт задачи следующего уровня на основе полученной информации; 5) процесс, который собирает информацию воедино; 6) процесс, который анализирует полученное решение. Для реализации этих процессов возможно использование парадигмы Директор-Мастер-Рабочий. Директор анализирует ЭД, выделяет подзадачи на данном уровне и отправляет их мастеру. Мастер распределяет задачи среди рабочих, собирает полученные результаты и отправляет их обратно директору. Директор анализирует подзадачи, записывает результат в таблицу и, если корень ЭД не достигнут, создаёт задачи следующего уровня и отправляет Мастеру. Если же корень ЭД был достигнут, Директор просматривает таблицу промежуточных решений, выбирает оптимальное и проверяет целевую функцию. Если результат совпал, то задача выполнена. Для реализации парадигмы Директор-Мастер-Рабочий хорошо подходит платформа распределённых вычислений BOINC (Berkeley Open Infrastructure for Network Computing)[5], где директором назначается компьютер, на котором непосредственно решается задача, Мастером назначается удалённый боинк-сервер, а рабочими процессами – удалённые компьютеры. Распределённые вычисления позволяют быстро решать объёмные задачи, так как к процессу решения привлечено большое количество пользователей, а значит и удалённых компьютеров. Список используемых источников: 1. Щербина O.A. Локальныe элиминационные алгоритмы решения разреженных дискретных задач // Журнал вычислительной математики и математической физики. - 2008. - T. 48, № 1. - C. 161-177. 2. Щербина О. А. Древовидная декомпозиция и задачи дискретной оптимизации (обзор) // Кибернетика и системный анализ. 2007. № 4. С. 102-118. 3. Российские распределенные вычисления на платформе BOINC [Электронный ресурс]. URL:http://www.boinc.ru/
        Speaker: Darya Lemtyuzhnikova (TNU)
    • 14:30 19:00
      Technology for storaging, searching and processing of Big Data Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 14:30
        The development of an ARM System on Chip based Processing Unit for Data Stream Computing 20m
        Modern big science projects are becoming highly data intensive to the point where offline processing of stored data is infeasible. High data throughput computing, or Data Stream Computing, for future projects is required to deal with terabytes of data per second which cannot be stored in long-term storage elements. Conventional data-centres based on typical server-grade hardware are expensive and are biased towards processing power. The overall I/O bandwidth can be increased with massive parallelism, usually at the expense of excessive processing power and high energy consumption. An ARM System on Chip (SoC) based processing unit may address the issue of system I/O and CPU balance, affordability and energy efficiency since ARM SoCs are mass produced and designed to be energy efficient for use in mobile devices. Such a processing unit is currently in development, with a design goal of 20 Gb/s I/O throughput and significant processing power. The I/O capabilities of consumer ARM System on Chips are discussed along with to-date performance and I/O throughput tests.
        Speaker: Mr Mitchell Cox (University of the Witwatersrand, Johannesburg)
        Slides
      • 14:50
        A CPU Benchmarking Characterization of ARM Based System on Chips 20m
        Big science projects like the Large Hadron Collider (LHC) at CERN and the design of the Square Kilometer Array (SKA) in South Africa are fast exceeding current data throughput capabilities making offline storage infeasible. A potential solution involves using low-cost, low-power ARM processors in large arrays to provide massive parallelisation for data stream computing (DSC). The main advantage in using ARM processors is found in the Central Processing Unit (CPU) with its multi-cores and low power design. A benchmarking characterisation of three different models of ARM processor, namely the Cortex-A7, Cortex-A9, and Cortex-A15, have been prepared. Results have been obtained for single and multiple configurations and power measurements will be shown.
        Speaker: Mr Robert Reed (University of the Witwatersrand)
        Slides
      • 15:10
        A Memory Benchmarking Characterisation of ARM-Based Systems-on-Chip for Data Stream Computing 20m
        The computing requirements of Big Science are ever-increasing and the volume of data produced by some of its projects has long exceeded available off-line storage capacity, necessitating the use of innovative means of data capturing. The volume of data expected to be produced by projects such as the Square Kilometre Array and the to-be upgraded Large Hadron Collider will far exceed existing system capacities. In addition, system and energy costs are sources of increasing concern. A potential solution involves the use of low-cost, low-power ARM-based Systems-on-Chip in large arrays in a manner which provides massive parallelisation for the purposes of high data throughput or Data Stream Computing. This focus on throughput rates increases the importance of memory performance to overall system performance. Using three memory performance benchmarks (namely STREAM, LMBench and pmbw) the performance of three ARM-based Systems-on-Chip, namely the Cortex-A7, -A9 and -A15, is characterised. The implications of these results in the context of Data Stream Computing are then discussed.
        Speaker: Mr Thomas Wrigley (University of the Witwatersrand, Johannesburg)
        Slides
      • 15:30
        High-throughput parallel pipelined data processing system for remote Earth sensing big data in the clouds 30m
        Report presents the approach and its software implementation of high-throughput parallel pipelined data processing system on the example of remote sensing of Earth from satellites (up to 1 Tb of data daily). The system is developed for processing potentially infinite data flow as it emerging in realtime. Data flow can be processing by set of subtasks steps( pipeline) with one or many required input files interconnected in a highly customizable way according to set of their parameters. That parameters could be outer or inner( metadata headers) file properties, for example sensor name, type, date, time, geolocation, besides file may have newer versions and be optional. New pipelines could be added, configured and tuned on the fly, sharing with priorities available cluster resources and new or the same data. The system operates at local common data storage for runtime computation and remote data sources and backup storage for results. Supported access and transport protocols for data at different locations programmingly extendable. Special description language flexsible adopts different computational tasks and applied solutions decreasing time for solution deployment and result gaining. Dynamically scalable by the system pool of cloud resources increases usage efficiency. The system controls pipelines, instances of subtasks and virtual machines lifetime, pipelines synchronization, statistics collection, errors detection and auto correction. The system is intended for sustainability with failover in any part of operation.
        Speaker: Mr Alexander Novikov (National Research Centre "Kurchatov Institute")
        Slides
      • 16:00
        Coffee 30m
      • 16:30
        GridFTP frontend with redirection for DMLite 20m
        One of the most widely used storage solutions in WLCG is a Disk Pool Manager (DPM) developed and supported by SDC/ID group at CERN. Recently DPM went through a massive overhaul to address scalability and extensibility issues of the old code. New system was called DMLite. Unlike the old DPM that was based on daemons, DMLite is arranged as a library that can be loaded directly by an application. This approach greatly improves performance and transaction rate by avoiding unnecessary inter-process communication via network as well as threading bottlenecks. DMLite has a modular architecture with its core library providing only the very basic functionality. Backends (storage engines) and frontends (data access protocols) are implemented as plug-in modules. Doubtlessly DMLite wouldn't be able to completely replace DPM without GridFTP as it is used for most of the data transfers in WLCG. In DPM GridFTP support was implemented in a Data Storage Interface (DSI) module for Globus’ GridFTP server. In DMLite an effort was made to rewrite a GridFTP module from scratch in order to take advantage of new DMLite features and also implement new functionality. The most important improvement over the old version is a redirection capability. With old GridFTP frontend a client needed to contact SRM on the head node in order to obtain a transfer URL (TURL) before reading or writing a file. With new GridFTP frontend this is no longer necessary: a client may connect directly to the GridFTP server on the head node and perform file I/O using only logical file names (LFNs). Data channel is then automatically redirected to a proper disk node. This renders the most often used part of SRM unnecessary, simplifies file access and improves performance. It also makes DMLite a more appealing choice for non-LHC VOs that were never much interested in SRM. With new GridFTP frontend it's also possible to access data on various DMLite-supported backends like HDFS, S3 and legacy DPM.
        Speaker: Mr Andrey Kiryanov (PNPI)
        Slides
      • 16:50
        XFEL diffraction patterns representation method for classification, indexing and search. 20m
        In our work we present a new method of feature vector calculation for XFEL diffraction patterns. Existing methods of image feature vector calculation developed for computer vision and patterns recognition are not effective for diffraction patterns analysis since they don't take into account inner properties of diffraction physics. In our research we developed the new method based on connection between spatial structure of a particle and pattern properties. Results showed that our approach improved classification, separation and clustering of experimental diffraction data.
        Speaker: Mr Sergey Bobkov (NATIONAL RESEARCH CENTRE "KURCHATOV INSTITUTE")
      • 17:10
        ТЕХНОЛОГИЯ ФОРМИРОВАНИЯ КАТАЛОГА ИНФОРМАЦИОННОГО ФОНДА 20m
        Современные проблемы и задачи требуют для своего решения анализа больших объёмов (слабо/хорошо структурированной) информации, с большой скоростью, распределённых в различных источниках. Время и ресурсы для решения проблем и задач, как правило, ограничены и зачастую несопоставимы с существующими механизмами поиска, селекции и аккумуляции требуемой информации по качеству. Неслучайно, что один из наиболее часто упоминаемых сегодня терминов в IT-области – это Big Data [1-3]. Объёмы научных фондов и их число растут с некоторой скоростью [4]. Механизмы поиска становятся неэффективными по показателям время, деньги, качество. С одной стороны, имеет место быть рост объема разнородной информации, рост в потребности в качественной информации. С другой — неэффективные поисковые информационные системы (ИПС) и общие вопросно-ответные системы. Специалисту в определенной области знаний важно иметь инструмент для эффективного исследования информации в массивах научных публикаций как основной продукции деятельности ученых и исследователей. В связи с этим возникает необходимость эффективных (высокий уровень релевантности, время поиска, большие объемы информации) ИПС и вопросно-ответных систем. В характеристику «больших данных» velocity (динамичность, изменчивость, скорость изменения) может быть заложено изменение структуры данных. Хорошо структурированная информация может быть достаточно точно представлена данными. Слабо структурированная информация может быть представлена данными с высокой степенью неопределённости, что является следствием их изменчивости. Семантическое структурирование контента информационных фондов имеет целью формирование его смыслового поля и направлено на снижение степени неопределенности. Развитие методов организации информационного поиска подтверждает научно-практический интерес к решению этой проблемы. В статье рассматривается подход совершенствования технологий обработки информации на основе логико-семантической сети (ЛСС) Вопрос-Ответ-Реакция, направленный на формирование и поддержку каталожной службы, обеспечивающей эффективный поиск ответов на вопросы [5] [6]. В основу такой каталожной службы положены семантические связи, отражающие логику изложения авторской мысли в рамках данной публикации, темы, предметной области. Структурирование и поддержка этих связей позволит работать с полем смыслов, обеспечив новые возможности для исследования корпуса документов электронных библиотек (ЭБ) [6]. Формирование каталога информационного фонда (ИФ) включает: 1.Формирование лексического словаря ИФ. 2.Построение дерева классификации ИФ по нескольким основаниям. 3.Классификация ИФ по вопросно-ответным темам. 4.Формирование поисковых запросов, адекватных дереву классификации вопросно-ответных тем (таблица соответствия запрос → ответ ↔ {вопрос-ответ-реакция}). 5.Автоматизированный поиск запросов по тематическим поисковым машинам. 6. Анализ ответов на запросы. 7. Поддержка каталога ЛСС на этапе эксплуатации (пополнение и уточнение каталога). Технология рассматривается для двух ситуаций: 1) ИФ уже сформирован; 2) ИФ отсутствует, его необходимо создать. [1] Martin Hilbert, Priscila López. The World’s Technological Capacity to Store, Communicate, and Compute Information//Science April 2011: Vol.332, no. 6025.- pp. 60-65. - DOI: 10.1126/science.1200970 [2] Андрей Найдич. Big Data: проблема, технология, рынок//КомпьютерПресс №1'2012 [Электронный ресурс]. URL: http://www.compress.ru/article.aspx?id=22725&iid=1044 [3] Галина Якшонок. Эффективный поиск и анализ научно-исследовательской информации в SciVerse: Scopus, Hub, ScienceDirect//МГИМО, 2012. [Электронный ресурс]. URL: http://mgimo.ru/files2/y03_2012/220642/MGIMO_March-2012.ppt [4] Н. С. Редькина. СОВРЕМЕННОЕ СОСТОЯНИЕ И ТЕНДЕНЦИИ РАЗВИТИЯ ИНФОРМАЦИОННЫХ РЕСУРСОВ И ТЕХНОЛОГИЙ//Библиосфера, № 2, 2010.- C. 23-29 [5] Добрынин В. Н., Филозова И. А. Поиск в научной электронной библиотеке на основе логико-семантической сети Вопрос-Ответ-Реакция// Труды XII Всероссийской научной конференции RCDL'2010 "Электронные библиотеки: перспективные методы и технологии, электронные коллекции". — Казань: Казанский университет, 2010. — с. 301-308.—Библиогр.: с.308. — ISBN: 978-5-98180-838-8 [6] Добрынин В.Н., Филозова И.А. Семантический поиск в научных электронных библиотеках//Информатизация образования и науки № 2(22)/2014. - c.110-110
        Speaker: Ирина Филозова (Объединенный институт ядерных исследований, Лаборатория информационных технологий / ГОУ ВПО Международный Университет природы, общества и человека «Дубна», Институт системного анализа и управления)
        Slides
      • 17:30
        EOS storage at SIVVP SASKE and Heterogeneous LIT JINR clusters 20m
        Speaker: Lucia VALOVA
        Slides
      • 17:50
        ALLOCATION STEINERPOINTS IN EUCLIDEAN STEINER TREE PROBLEM BY MEANS OF MATLAB PACKAGE 20m
        The problem of allocation of Steiner points in Euclidean Steiner Tree is considered. In spite of advances in wireless technologies, many computer networks utilize cables as a physical medium for devices to transfer data. Such networks are allocated on the earth's surface and problem is to minimize the cost of network to connect the computers. The cost of network is sum of building costs and cost of the information transportation. Euclidean Steiner tree problem in the form of topological network design is a good model of this problem. The package MatLab allows looking for the solution of this model problem... It consists of two parts — to define the adjacency matrix and allocate the Steiner points. The package MatLab has the way to solve the second part of this problem — allocate Steiner points under condition that the adjacency matrix is set. The method to get solution has been worked out. The Steiner tree is formed by means of solving of the sequence of "three points" Steiner problems [1]. MatLab solves "Three points" Steiner problem by means of function Xmin = fminsearch (hFunction, x0). Function "Function" define current sum of distances from current point to three given points. MatLab searches minimum of the sum by means of Nelder-Mead simplex method [2]. Minimum point is Steiner point of "three points" Steiner tree. It is first remarkable vertex of "three points" Steiner tree problem. Adjacent to root a new vertex, named "equivalent vertex", is defined. It is second remarkable vertex of "three points" problem. It is remarrable because of the cost of edge connecting this vertex and root is the same as the cost of the entire "Three points" Steiner tree. Steiner tree problem for several terminal points is solved in two stages. First of all "equivalent vertexes" are allocated. It is first sage. The "equivalent vertexes" are used to allocate Steiner points. It is second stage. The package MatLab allows looking graphic view of the results. 1. Лотарев Д. Т. Решение трехточечной задачи Штейнера на плоскости средствами MatLab. Труды ИСА РАН, 2008. Т. 32. стр. 159-165. 2. Д.Г. Мэтьюз, К.Д. Финк. Численные методы. Использование MatLab. Издательский дом "Вильямс" Москва, Санкт-Петерсбург, Киев. 2001.
        Speaker: Mr Dmitriy Lotarev (A.A. Kharkevich Institute for Information Transmission Problems, RAS)
        Slides
    • 09:30 11:00
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 09:30
        Optimization problems in distributed computing environment 30m
        The report focuses on technologies for solving optimization problems in distributed computing s. There are discussed new and traditional approaches to problem solving in the report. Also there are consideration the problems as finite-dimensional so and dynamic optimization.
        Speakers: Prof. Alexander Afanasiev (IITP RAS), Mr Vladimir Voloshinov (Institute for Information Transmission Problems RAS)
        Slides
      • 10:00
        Running Applications on a Hybrid Cluster 20m
        A hybrid cluster implies the use of computational devices with radically different architectures. Usually, these are a conventional CPU architecture (e.g. x86_64) and a GPU architecture (e.g. NVIDIA CUDA). Creating and exploiting such a cluster requires some experience: in order to harness all computational power of the described system and get substantial speedup for computational tasks many factors should be taken into account. These factors consist of hardware characteristics (e.g. network infrastructure, a type of data storage, GPU architecture) as well as software stack (e.g. MPI implementation, GPGPU libraries). So, in order to run scientific applications GPU capabilities, software features, task size and other factors should be considered. This report discusses opportunities and problems of hybrid computations. Some statistics from tests programs and applications runs will be demonstrated. The main focus of interest is open source applications (e.g. OpenFOAM) that support GPGPU (with some parts rewritten to use GPGPU directly or by substituting libraries). There are several approaches to organise heterogeneous computations for different GPU architectures. CUDA library and OpenCL framework will be compared. CUDA library becomes quite typical for hybrid systems with NVIDIA cards, but OpenCL offers portability opportunities, which can be a determinant factor when choosing framework for development. We also put emphasis on multi-GPU systems that are often used to build hybrid clusters. Calculations were performed on a hybrid cluster of SPbU computing centre.
        Speaker: Mr Vladimir Gaiduchok (Saint Petersburg Electrotechnical University "LETI", Russia)
        Slides
      • 10:20
        GRID based high performance computing in satellite imagery. Case Study – UNOSAT. 20m
        The present paper presents a novel approach for efficient satellite image processing. The increasing number of high resolution satellites into orbit and the number of applications using satellite images lead to petabytes of data to be processed. Unfortunately, infrastructures like UNOSAT cannot store and process such amount of information. Consequently, dividing the processing tasks and storage within a GRID infrastructure could represent a solution to this kind of problem. However, for the iterative algorithms and iterative processing tasks applied to high resolution images, the strategy of distributing the jobs over a GRID infrastructure still has its limitation. Thus, FPGA or GPU based application specific hardware architectures can be used together with the GRID infrastructure in order to increase the computing performances. An example of FPGA application specific hardware architecture which makes use of spatial and temporal parallelism is proposed for the iterative Perona Malik image processing filter.
        Speaker: Prof. Gheorghe Adam (JINR)
        Slides
      • 10:40
        BES-III distributed computing status 20m
        The BES-III experiment at the Institute of High Energy Physics (IHEP), Beijing, uses the high-luminosity BEPC-II e+e- collider to study physics in the tau-charm energy region around 3.7 GeV. BEPC-II has produced the world’s largest samples of J/psi and psi' events to date. An order of magnitude increase in the data sample size over the 2011-2013 data-taking period demanded a move from a very centralized to a distributed computing environment. JINR participates in the experiment since 2005. Main JINR team computing activities are data management and grid monitoring. Great progress have been reached in data-store infrastructure. First production version of the monitoring system for BES-III was developed and has been actively used. Here we present general information, latest results and plans of JINR - BES-III collaboration in the area of distributed computing.
        Speaker: Dr Alexander Uzhinskiy (Joint Institute for Nuclear Research)
        Slides
    • 11:00 11:30
      Coffee 30m
    • 11:30 13:00
      Plenary Conference Hall

      Conference Hall

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 11:30
        Разработка и построение распределенной вычислительной сети MarGrid на базе компьютеров республики Марий Эл 30m
        В статье рассматриваются алгоритмы и особенности реализации распределенной Grid-сети для решения задач, обладающих высокой вычислительной сложностью. Приведены алгоритмы функционирования системы и модели хранения данных при проектировании собственного клиент-серверного программного комплекса MarGrid для осуществления распределенных вычислений. Описаны требования к задачам как к исполняемым программам, выполнение которых позволяет осуществлять их расчет в системе MarGrid. В качестве примера и результатов расчетов приводится задача исчерпывающего поиска оптимальных по минимаксному критерию бинарных последовательностей. Описываются темпы роста сети (на сегодняшний день 650 компьютеров с потенциальной производительностью в 42 ТФлопс) и перспективы дальнейшего расширения.
        Speakers: Mr Anatolii Leukhin (Mari State University), Mr Egor Potekhin (Volga State University of Technology), Vladimir Bezrodny (PGTU)
        Slides
      • 12:00
        Параллельное моделирование дискретных событий: достижения и перспективы 30m
        Методы и алгоритмы параллельного моделирования дискретных событий (ПМДС) интенсивно развиваются для применения в различных областях науки, практики и управления. Их эффективность доказана примерами успешного внедрения в промышленности и управлении. В последнее время ведутся интенсивные исследования методов и алгоритмов ПМДС для выяснения вопроса об их возможном применении в архитектуре компьютеров экзафлопсного уровня. В настоящей работе мы даем обзор современного состояния исследований.
        Speaker: Prof. Lev Shchur (Landau Institute for Theoretical Physics and Scientific Center in Chernogolovka)
      • 12:30
        ПЕРЕНОС ЗАРЯДА НЕЛИНЕЙНЫМИ ВОЗБУЖДЕНИЯМИ В ДНК 30m
        Рассматриваются нелинейные возбуждения в ДНК, вызванные внешним воздействием. Показано, что в сильном электрическом поле возможны нелинейные возбуждения, способные переносить заряд на большое расстояние. Показано, что внешнее периодическое воздействие может приводить к появлению бабблов, способных распространяться вдоль молекулы. Рассмотрено взаимодействие бабблов с помещенным в цепочку избыточным зарядом: электроном или дыркой. Проведены численные эксперименты, демонстрирующие возможность переноса заряда бабблами. Обсуждается возможность применения полученных результатов в нанобиоэлектронике. Работа выполнена при поддержке РФФИ, проект №13-07-00256
        Speaker: Prof. Victor Lakhno (IMPB RAS, Puschino)
        Slides
    • 13:00 14:00
      Posters 4 floor

      4 floor

      LIT JINR

      Russia, 141980 Moscow region, Dubna, JINR
      • 13:00
        Cloud computing for virtual testbed 1h
        Now days cloud computing is an important and hot topic in arena of information technology and computer system. Several companies and educational institutes have been deployed cloud infrastructures to overcome their problems such as easy data access, software updates with minimal cost, large or unlimited storage, efficient cost factor, backup storage and disaster recovery and several other benefits compare with the traditional network infrastructures. There we study cloud computing technology for marine environmental data and processing. A cloud computing of marine environment information is proposed for the integration and sharing of marine information resources that its aim to perform empirical requiring numerous interactions with web servers and transfers of very large archival data files without affecting operational information system infrastructure is highly desirable. In this paper, we consider about the cloud computing for virtual testbed to minimize the cost. That it related with real time infrastructure and the take advantages of the cloud computing technology.
        Speaker: Mr Myo Min Swe (St.Petersburg State Marine Technical University)
      • 13:00
        Distributed application compilation on several virtual nodes 1h
        In this article we present our investigations in distributed compilation of our application using several virtual machines running on one physical hardware, combined together into several nodes using Continuous Integration tool called Jenkins. We analyze time/memory consumption during building application on one node, one node into several thread, several nodes and several nodes into several threads.
        Speaker: Mr Artem Krosheninnikov (SPbSU)
      • 13:00
        Elastic personal clusters on Cloudstack 1h
        mCernVM(http://cernvm.cern.ch/portal/ucernvm) is an microimage allows one easily to create on-demand personal contextualized HPC clusters, and workstations. At present time mCernVM itself and its deployment mechanism is tested to run on OpenStack platform deployed at CERN and on Amazon EC2. It is assumed that number of supported cloud platforms will be extended significantly. Current work is a first successful experience to run mCernVM clusters on platform that differs from OpenStack and Amazon (namely CloudStack). While adopting mCernVM deployment process to CloudStack it were found and fixed a number of bugs in CloudStack. As a result of this work with help of CernVM-online (https://cernvm-online.cern.ch) we now able to create virtual clusters and workstations on both CERN OpenStack Cloud and private SPBU CloudStack. Clusters and workstations are deployed using individual EC2 keys, while authorization on cluster may be performed either by created login/password pair or through ALICE VO and grid certificates.
        Speakers: Mr Andrey Zarochentsev (SPbSU), Dr Mikhail Kompaniets (SPbSU)
      • 13:00
        Hardware platforms of parallel and distributed simulation technology 1h
        In this article we discussed about the hardware platforms of parallel and distributed simulation technology of interest here contain a potentially large number of processors interconnected through a communication network. In most cases the processor is a general purpose CPU (central processing unit), often identical to those commonly found in personal computers and engineering workstations. The switching network may be as specific as a customized switch for a particular multiprocessor system, or as general as the Internet. This paper presents four categories: Parallel versus Distributed Computers, Shared-Memory Multiprocessors, Distributed-Memory Multicomputers, SIMD Machines and Distributed Computers. This paper is a theoretical paper.
        Speakers: Mr Swe Myo Min (Postgraduаte), Mr Wunna Kyaw (Postgraduate)
        Poster
      • 13:00
        IMPROVEMENT OF COMPUTATIONAL ABILITIES IN COMPUTING ENVIRONMENTS WITH VIRTUALIZATION TECHNOLOGIES 1h
        In this paper, we illustrates the ways to improve abilities of the computing environments by using virtualization, single system image (SSI) and hypervisor technologies’ collaboration for goal to improve computational abilities. Recently cloud computing as a new service concept has become popular to provide various services to user such as multi-media sharing, online office software, game and online storage. The cloud computing is bringing together multiple computers and servers in a single environment designed to address certain types of tasks, such as scientific problems or complex calculations. By using virtualization technologies, cloud computing environment is able to virtualize and share resources among different applications with the objective for better server utilization, better load balancing and effectiveness.
        Speaker: Mr Zaya Kyaw (Saint-Petersburg State Marine Technical University)
        Slides
      • 13:00
        Modeling of Behavior of the Option. The Formulation of the Problem 1h
        Object of research: The creation of algorithm for mass computations of options` price for formation of a riskless portfolio. The method is based on the generalization of the Black-Scholes approach[1]. The task is the modeling of behavior of all options and tools for their insurance. This task is characterized by large volume of real-time complex computations that should be executed concurrently The problem of the research: depending on conditions approaches to the solution should be various. There are three methods which can be used with different conditions: the finite difference method[2], the path-integral approach[3] and methods which work in conditions of trade stop [4]. Distributed computating in these three cases is organized differently and it is necessary to involve various approaches. In addition to complexity the mathematical formulation of the problem in literature is not quite correct. There is no complete description of boundary and initial conditions[5] and also several hypotheses of the model do not correspond to real market[6]. It is necessary to give mathematically correct formulation of the task, and to neutralize a difference between hypotheses of the model and their prototypes in the market. For this purpose it is necessary to expand standard formulation by additional methods and develop methods of realization for each of solution branches. References [1] Black F., Scholes M. The Pricing of Options and Corporate Liabilities //Journal Political Economy, 81 (May/June 1973). P. 637-659: Merton R.C/ Theory of Rational Option Pricing //Bell Journal of Economics and Management Science. 4 (Spring 1973) [2] Daniel J. Duffy, Finite Difference Methods in Financial Engineering,(2006)240-249. [3] B. E. Baaquie Quantum finance. Cambridge University Press The Edinburgh Building, Cambridge CB2 8RU, UK 2004 [4] Investor Bulletin: New Measures to Address Market Volatility / http://www.sec.gov/investor/alerts/circuitbreakersbulletin.htm [5] Jens Hugger/ Wellposedness of the boundary value formulation of a fixed strike Asian option. Journal of Computational and Applied Mathematics, 185 (2006) 460–481 [6] Taleb, Nassim Nicholas and Martin, George A., The Illusion of Thin-Tails Under Aggregation(January 18, 2012). Journal of Investment Management, Forthcoming.
        Speaker: Mrs Marina Panchenko (Saint Petersburg State University)
      • 13:00
        On the development of distributed infocommunication system for science and education 1h
        Высокий темп обмена научной информацией, увеличение темпа научных исследований, увеличение числа международных проектов, которые играют определяющую роль в создание распределенных виртуальных научных коллективов, достаточно жесткие требования финансирующих организаций к результативности научных исследований - именно эти факторы характеризуют научные исследования в 21 веке. Как следствие, можно наблюдать значительное усиление конкуренции в научной среде. Мы анализируем требования к разработке распределенной инфокоммуникационной системы для обеспечения научно-учебной деятельности.
        Speaker: Dr Alexander Russkov (Scientific Center in Chernogolovka)
      • 13:00
        On the performance of storage in cloud environment 1h
        We test storage performance of OpenNebula cloud environment. We build up test bed "Tuchka" with front-end and two nodes. We check performance with the write, read and copy operations varying block size and time delay. We present discussion of the testing which demonstrates strong stochastic nature and influence of cashing.
        Speaker: Dr Alexander Russkov (Scientific Center in Chernogolovka)
      • 13:00
        PERFORMANCE OF THE OPENMP AND MPI IMPLEMENTATIONS ON ULTRASPARC SYSTEM 1h
        This paper targets programmers and developers interested in utilizing parallel programming techniques to enhance application performance. The Oracle Solaris Studio software provides state-of-the-art optimizing and parallelizing compilers for C, C++ and Fortran, an advanced debugger, and optimized mathematical and performance libraries. Also included are an extremely powerful performance analysis tool for profiling serial and parallel applications, a thread analysis tool to detect data races and deadlock in memory parallel programs, and an Integrated Development Environment (IDE). The Oracle Message Passing Toolkit software provides the high-performance MPI libraries and associated run-time environment needed for message passing applications that can run on a single system or across multiple compute systems connected with high performance networking, including Gigabit Ethernet, 10 Gigabit Ethernet, InfiniBand and Myrinet. Examples of OpenMP and MPI are provided throughout the paper, including their usage via the Oracle Solaris Studio and Oracle Message Passing Toolkit products for development and deployment of both serial and parallel applications on SPARC and x86/x64 based systems. Throughout this paper it is demonstrated how to develop and deploy an application parallelized with OpenMP and/or MPI.
        Speaker: Mr Zaya Kyaw (Saint-Petersburg State Marine Technical University)
        Slides
      • 13:00
        PiLite: a unified interface to local resource managers on supercomputing resources 1h
        The PiLite program is a gateway designed to unify the process of remote jobs execution and management on supercomputing resources. The program provides a common interface that masks the real local resource manager (LRM) used on remote supercomputer installation. PiLite allows to execute the following tasks: - jobs submission; - obtaining job status; - premature job termination on user's command; - input and output files management; - a real time downloading of the special monitoring file intended to track the correctness of the job execution. The program consists of two components: the server-side component and the client-side one. The server-side component is a common interface that could be used via direct remote access to the supercomputing resource as well as in GridNNN infrastructure as a regular gateway. For the direct remote access the client-side component is provided. The client-side component is a set of the command-line tools that could be combined with the web interface thus providing more simplicity in use of supercomputing resources and improving user's operational performance. As for use in GridNNN, PiLite is fully compatible with the GridNNN RESTful web services in program interface and job definition format. At the present time the program has been proved to correctly interoperate with PBS and Fork LRMs. Support for other LRMs can be provided by request. The program was used as the gateway to the supercomputing resources during execution of the contract No 14.514.11.4058 "Creating a numerical model of the water flow around a ship with account of the wave formation and laminar-turbulent transition in the boundary layer on the ship's hull".
        Speaker: Ms Yulia Dubenskaya (Scobeltsyn Institute of Nuclear Physics Lomonosov Moscow State University)
        Slides
      • 13:00
        Алгоритмическое построение явных численных схем и визуализация объектов и процессов в вычислительном эксперименте в гидромеханике 1h
        Эффективная реализация исследовательских вычислительных экспериментов в гидромеханике нередко усложняется необходимостью использования нерегуляризованных сеточных узлов и ячеек с крупными частицами жидкости, формализуемых однозначными функциональными связями числовых объектов с алгоритмическими операциями объектно-ориентированных языков программирования, с обязательным учетом архитектурных особенностей современных компьютеров. В настоящей работе систематизируются некоторые методы построения числовых объектов и операций для Лагранже-Эйлерова подхода в гидромеханике, в которых исходной постановкой физической задачи допускается разделение этапов решения по процессам с независимыми физическими полями и массивами свободный частиц. Такое разделение физических полей по сути означает возможность использования явных численных схем с распараллеливанием вычислительных операций до уровня отдельно взятых частиц-ячеек, и в том числе с одновременным исполнением расчетных этапов с синхронизацией или дублированием расчетных массивов. Реализация новых вычислительных экспериментов основана на активном использовании алгоритмических правил специальной тензорной арифметики, объединяемых в функциональные комплексы трехмерной тензорной математики для прямого численного моделирования в гидромеханике. Визуализация динамики физических полей и частиц жидкости выполняется с использованием аналитической геометрии из пакета «однородных координат» графической системы OpenGL, в которой задействованы тензорные операции для трехмерного представления обзорных сцен с произвольным количеством элементарных графических объектов – пластин и частиц. Ориентация на OpenGL отводит сложные процессы визуализации на автономную графическую станцию.
        Speaker: Ms Tatyana Ezhakova (Saint-Petersburg State University)
        Poster
        Slides
      • 13:00
        Естественные модели параллельных вычислений 1h
        Курс «Естественные модели параллельных вычислений», читаемый студентам старших курсов факультета ВМК МГУ, посвящен рассмотрению вопросов суперкомпьютерной реализации естественных вычислительных моделей и является, по сути, введением в теорию естественных вычислений (Natural Computing), относительно нового раздела науки, образовавшегося на стыке математики, информатики и естественных наук (прежде всего биологии). Тематика естественных вычислений включает в себя как уже классические разделы (клеточные автоматы, искусственные нейронные сети), так и относительно новые, появившиеся в последние 10-20 лет (ДНК-вычисления, роевой интеллект). Несмотря на свое биологическое «происхождение», все эти модели находят широчайшее применение практически во всех областях, связанных с компьютерной обработкой данных: при моделировании в физике, химии, биологии, экономике и т. п.; в интеллектуальном анализе данных; для управления различными сложными системами и т. д. Исследования в области естественных вычислений тесно связаны с вопросами и технологиями параллельных вычислений. С одной стороны это обусловлено высокими объемами вычислений, необходимыми для проведения полноценного компьютерного моделирования, с другой – высокой степенью параллелизма, присущего всем рассматриваемым моделям. Изложение теоретического материала курса сопровождается рассмотрением возможных схем распараллеливания вычислений, а в практической части курса предполагается выполнение студентами программной реализации рассматриваемых моделей с использованием технологии MPI и проведение численных экспериментов по исследованию эффективности выбранных схем распараллеливания вычислений. Работа выполнена при финансовой поддержке РФФИ (грант №14-07-00628 А).
        Speaker: Dr Nikolay Ershov (Moscow State University)
        Slides
      • 13:00
        Неоднородные клеточные генетические алгоритмы 1h
        Клеточные генетические алгоритмы обладают рядом преимуществ по сравнению с обычными генетическими алгоритмами. Во-первых, за счет локальности взаимодействия между особями популяции удается более долгое время поддерживать разнообразие в популяции, что потенциально ведет к получению более качественного решения. Во-вторых, благодаря регулярности расположения особей в клеточном пространстве и отсутствию глобальных операций клеточные генетические алгоритмы хорошо и масштабируемо распараллеливаются. Однако, как и в обычных генетических алгоритмах, в клеточном варианте остается актуальной проблема попадания алгоритма в локальные экстремумы. В настоящей работе предлагается подход к решению этой проблемы, основанный на введении зависимости работы операторов генетического алгоритма (прежде всего, мутации) от положения особи в клеточном пространстве. В работе рассматривается решение различных оптимизационных задач с помощью клеточных генетических алгоритмов на двумерной прямоугольной решетке. В алгоритме применяется турнирная схема отбора, равномерное скрещивание и оператор миграции. Идея, лежащая в основе неоднородных клеточных генетических алго¬ритмов, заключается в том, что параметры алгоритма (например, вероятности выполнения операторов отбора, скрещивания, мутации и отбора) делаются зависимыми от положения той или иной особи в клеточном пространстве алгоритма. В работе, в частности, исследуется введение неоднородности в величину мутации (максимальное изменение значения одного гена) и в вероятность отбора, что позволяет поддерживать на высоком уровне разнообразие популяции в течение всего времени работы алгоритма, а не только на начальном его этапе. Рассматривается несколько типов зависимости величины мутации от положения особи (горизонтальный градиент, центральный градиент и т.п.). В работе рассматривается крупнозернистая параллельная реализация неоднородных клеточных алгоритмов с использованием технологии MPI. Приводятся результаты численного сравнения со стандартным генетическим алгоритмом и со стандартным клеточным генетическим алгоритмом при решении ряда тестовых задач. Показывается, что за счет более медленной сходимости неоднородным клеточным генетическим алгоритмам удается достигать намного более качественных решений. Полученные результаты показывают перспективность предложенного подхода при решении сложных мультимодальных задач оптимизации. Работа выполнена при финансовой поддержке РФФИ (грант №14-07-00628 А).
        Speaker: Dr Nikolay Ershov (Moscow State University)
        Slides
    • 16:00 18:30
      Picnic Party
    • 09:30 10:30
      Plenary
      • 09:30
        Deriving Semantics from WS-BPEL Specifications of Parallel Business Processes on an Example 20m
        For today distributed and parallel systems, a widely accepted standard for specification of business processes is WS-BPEL. This standard is mismatch of algebraic and Petri net models, and as result of that it is easy possible to write business process with deadlocks and other not wanted features. That is why verification of business processes is very important topic in software engineering. The intent of this paper is to show possibilities for conversion of a WS-BPEL process into more formal models that can be formally verified. As formal models are used CSP and Z-notation. The last one is useful for specification of abstract data types. Web services can be viewed as a kind of last ones.
        Speaker: Prof. Vladimir Dimitrov (University of Sofia)
        Paper
        Slides
      • 09:50
        Методика обеспечения интероперабельности в Грид-среде и облачных вычислениях 20m
        Методика обеспечения интероперабельности в Грид-среде и облачных вычислениях Е.Е. Журавлев1, С.В. Иванов2, А.А. Каменщиков3, В.Н. Корниенко3, А.Я. Олейников3, Т.Д. Широбокова3 1Физический институт им. П.Н.Лебедева РАН, 2Российский новый университет, 3Институт радиотехники и электроники им. В.А.Котельникова РАН Настоящий доклад содержит материалы, представляющие собой развитие наших результатов по «проблеме интероперабельности» в Грид-среде и облачных вычислениях, доложенных на предыдущих международных конференциях «GRID’2010» и «GRID’2012» [1,2,3], с учетом появившихся за это время зарубежных данных, в основном материалов группы Open Grid Services Architecture (OGSA). Напомним, что «Интероперабельность - способность систем или компонентов обмениваться информацией и использовать эту информацию (ISO/IEC 24765-2010). В основе достижения интероперабельности лежит технология открытых систем и использование согласованных наборов ИТ-стандартов – профилей [4]. Проблема интероперабельности возникает в гетерогенной ИКТ-среде для информационных систем практически любого назначения и масштаба (от наносистем до Грид-систем, систем облачных вычислений и сверхбольших систем – systems of systems). И она тем острее, чем выше уровень гетерогенности среды. Обеспечение интероперабельности – сложная научно-техническая задача, которой занимаются многие организации и исследователи – основными международными организациями в области Грид-систем и систем облачных вычислений следует считать Open Grid Forum (OGF) и Open Cloud Consorcium (ОСС). Этими вопросами занимается также IEEE. В нашей стране проблема развития принципов интероперабельности, стандартов и технологий открытых систем, а также развитие технологий и стандартов Грид включены в Программу фундаментальных исследований государственных академий наук в 2013-2020 гг.. С учетом того, что в основе достижения интероперабельности лежит использование ИТ-стандартов, в докладе очень кратко описаны принципы работ по стандартизации, принятые в международной и отечественной практике. Основным результатом авторов за последние 2 года следует считать разработку единого подхода к обеспечению интероперабельности систем широкого класса. Подход оформлен в виде национального стандарта ГОСТ Р 55062-2012. На его основе могут создаваться интероперабельные системы самого широкого класса по масштабу и областям применения с учетом их особенностей, в том числе для Грид-систем и облачных вычислений. Одно из главных положений подхода состоит в том, что при создании Грид-систем и систем облачных вычислений согласно имеющегося законодательства должны использоваться национальные стандарты, гармонизированные с международными. Ранее нами разработаны два национальных стандарта для Грид-систем: ГОСТ Р 55022-2012. «Информационная технология. Спецификация языка описания представления задач (JSDL). Версия 1.0» и ГОСТ Р 55768-2013 «Модель открытой Грид-системы. Основные положения», обсуждавшиеся на предыдущих конференциях. В настоящее время завершена разработка глоссария, получившего название ГОСТ Р «Информационные технологии. Архитектура служб открытой Грид-среды. Термины и определения». Единый подход к обеспечению интероперабельности систем всех классов содержит ряд этапов (см. Рисунок 1). Рисунок 1. Единый подход к обеспечению интероперабельности для систем широкого класса. Приведенная схема содержит основанные и вспомогательные этапы. К основным этапам относятся этапы 1-5, к вспомогательным – этапы 6-9. Для обеспечения интероперабельности в случае Грид-среды и облачных вычислений должны быть выполнены все этапы, приведенные на рис.1 с учетом специфики этих сред. Важным обстоятельством следует считать то, что в ГОСТ Р55062-2012 впервые в мировой практике зафиксирована на уровне стандарта эталонная модель интероперабельности, содержащая три уровня: технический, семантический и организационный, которая является развитием общеизвестной 7-уровневой модели взаимосвязи открытых систем см. ГОСТ Р ИСО/МЭК 7498-1-99. Кроме разработки описанного единого подхода нами предложены модели интероперабельности в Грид-системах [5], в среде облачных вычислений [6], отслежены тенденции в стандартизации интероперабельности в Грид-системах и в облачных вычислениях [7], сделан обзор по обеспечению интероперабельности в облачных вычислениях [8]. В докладе приведены основные положения концепций интероперабельности Грид-среды и облачных вычислений, из сравнения которых следуют отличия в архитектуре, моделях, в составе профилей для Грид- среды и облачных вычислений и соответственно в программной реализации. В обоих случаях в основе проблемно-ориентированных моделей лежит трехуровневая модель. Тем самым, поскольку и Грид-вычисления и облачные вычисления в качестве коммуникационной среды используют Интернет, на техническом уровне для обоих случаев используются протоколы типа ТСР/IP. Отмечается, что реализация сводится к разработке программного интерфейса. Отмечается, что Грид-вычисления и облачные вычисления наряду с супер-компьютерными составляют основу современного этапа «e-science» [9]. Можно сделать вывод, что в случае, если описанная методика будет принята в виде национального стандарта, применение этого стандарта позволит дать весьма значительную экономию трудозатрат при создании национальных Грид-систем и систем облачных вычислений. Нам также представляется крайне важным коллективное обсуждение всех разрабатываемых документов, поскольку это гарантирует их востребованность, а также участие в работе соответствующих международных организаций. Литература [1] Журавлёв Е.Е, Корниенко В.Н., Олейников А.Я. Вопросы стандартизации и обеспечения интероперабельности в GRID – системах. // Распределенные вычисления и грид-технологии в науке и образовании: Труды 4-й международной конференции (Дубна, 28 июня – 3 июля, 2010 г.).- Дубна: ОИЯИ, Д-11-2010-140, 2010.-С. 364-372. ISBN 978-5-9530-0269-1. [2] Журавлёв Е.Е, Корниенко В.Н., Олейников А.Я. Исследование особенностей проблемы интероперабельности в GRID-технологии и технологии облачных вычислений. // Распределенные вычисления и грид-технологии в науке и образовании: Труды 5-й международной конференции (Дубна, 16-21 июля, 2012 г.).- Дубна: ОИЯИ, 2012 —С. 312-320. ISBN978-5-9530-0345-2. [3] Иванов С.В. вопросы интероперабельности в облачных вычислениях. // Распределенные вычисления и грид-технологии в науке и образовании: Труды 5-й международной конференции (Дубна, 16-21 июля, 2012 г.).- Дубна: ОИЯИ, 2012 —С. 321-325. ISBN978-5-9530-0345-2. [4] Технология открытых систем / Под редакцией А.Я. Олейникова. – М.: Янус-К, 2004, 288 с. [5] Журавлёв Е. Е., Корниенко В. Н., Олейников А. Я., Широбокова Т. Д. Модель открытой Грид-системы // [электронный ресурс] Журнал радиоэлектроники (электронный журнал, ISSN 1684-1719), - 2012. № 12. // Сайт ИРЭ им. В.А. Котельникова РАН. URL: http://jre.cplire.ru/alt/dec12/3/text.pdf (проверено 21.05.2014. [6] Журавлёв Е. Е., Иванов С. В., Олейников А. Я. Модель интероперабельности облачных вычислений // [электронный ресурс] Журнал радиоэлектроники (электронный журнал, ISSN 1684-1719), – 2013. – № 12. // Сайт ИРЭ им. В.А. Котельникова РАН. URL: http://jre.cplire.ru/jre/dec13/12/text.pdf (проверено 21.05.2014). [7] Журавлёв Е.Е., Корниенко В.Н. Тенденции в стандартизации интероперабельности в Грид и облачных технологиях //Стандартизация, сертификация, обеспечение эффективности, качества и безопасности информационных технологий «ИТ- Стандарт 2012» Труды Ш Международной конференции «ИТ-стандарт 2012» (МИРЭА 16-17 октября 2012) — Москва: МИРЭА, 2012 —С.123-130. [8] Журавлев Е.Е., Иванов С.В., Каменщиков А.А., Олейников А.Я., Разинкин Е.И., Рубан К.А. Интероперабельность в облачных вычислениях // [электронный ресурс] Журнал радиоэлектроники (электронный журнал, ISSN 1684-1719), – 2013. – № 9. // Сайт ИРЭ им. В.А. Котельникова РАН. URL: http://jre.cplire.ru/jre/sep13/4/text.pdf (проверено 21.05.2014). [9] The Fourth Paradigm. Data-Intensive Scientific Discovery. / Edited by Tony Hey, Stewart Tansley, and Krist in Tolle. // Microsoft Research Redmond, Washington. Second printing, version 1.1, October 2009. – p.287
        Speakers: Mr Александр Олейников (Институт радиотехники и электроники им. В.А.Котельникова РАН), Mr Сергей Иванов (Российский новый университет (РосНОУ))
        Slides
      • 10:10
        ГИС ИНТЕГРО ПРИ РЕШЕНИИ ЗАДАЧ НА НЕФТЬ И ГАЗ 20m
        Синопсис 1) Использование распределенных компьютерных систем в решении задач на нефть и газ сегодня. 2) Особенности компьютерной системы ГИС ИНТЕГРО, разработанной в лаборатории геоинформатики ВНИИгеосистем 3) Примеры практического применения ГИС ИНТЕГРО для решения задач и нефть и газ 4) Заключение. В основу системы интегрированной интерпретации геофизических данных при изучении глубинного строения Земли положена система ГИС ИНТЕГРО, являющаяся геоинформационной системой функционирования разнообразных вычислительных и аналитических приложений при решении различных геологических задач. ГИС ИНТЕГРО включает в себя многообразные интерфейсы, позволяющие изменять форму представления данных (растр, вектор, регулярная и нерегулярная сеть наблюдений), блок преобразования картографических проекций, а также прикладные блоки, включающие блок интегрированного анализа данных и решения прогнозно-диагностических задач. Методический подход базируется на интеграции и комплексном анализе геофизических данных по региональным профилям, геофизических потенциальных полей и дополнительной геологической информации на изучаемую территорию. Аналитическое обеспечение включает пакеты трансформаций, фильтрации, статистической обработки полей, расчета характеристик, выделения линеаментов, решения прямых и обратных задач, интегрирования геоинформации. Технология и программно-аналитическое обеспечение апробировались при решении задач тектонического районирования в масштабах 1:200000, 1:1000000 в Якутии, Казахстане, Ростовской области, изучения глубинного строения по региональным профилям 1:ЕВ, 1-СБ, 2-СБ, 3-СБ и 2-ДВ, прогноза нефтегазоносности в районах Восточной Сибири, Бразилии.
        Speaker: Aleksandr Senner
        Slides
    • 10:30 11:00
      Coffee 30m
    • 11:00 14:00
      Scientific, industry and business applications in distributed computing systems
      • 11:00
        Exact calculation of a posteriori probability distribution with distributed computing systems 20m
        We'd like to present a specific grid infrastructure and web application development and deployment. The purpose of infrastructure and web application is to solve particular geophysical problems that require heavy computational resources. Here we cover technology overview and connector framework internals. The connector framework links problem-specific routines with middleware in a manner that developer of application doesn't have to be aware of any particular grid software. That is, the web application built with this framework acts as an interface between the user 's web browser and Grid's (often very) own middleware. Our distributed computing system is built around Gridway metascheduler. The metascheduler is connected to TORQUE resource managers of virtual compute nodes that are being run atop of compute cluster utilizing the virtualization technology. Such approach offers several notable features that are unavailable to bare-metal compute clusters. The first application we've integrated with our framework is seismic anisotropic parameters determination by inversion of SKS and converted phases. We've used probabilistic approach to inverse problem solution based on a posteriory probability distribution function (APDF) formalism. To get the exact solution of the problem we have to compute the values of multidimensional function. Within our implementation we used brute-force APDF calculation on rectangular grid across parameter space. The result of computation is stored in relational DBMS and then represented in familiar human-readable form. Application provides several instruments to allow analysis of function's shape by computational results: maximum value distribution, 2D cross-sections of APDF, 2D marginals and a few other tools. During the tests we've run the application against both synthetic and observed data.
        Speaker: Mr Kirill Kholodkov (Schmidt Institute of Physics of the Earth RAS)
        Slides
      • 11:20
        Применение современных суперкомпьютерных технологий для численного моделирования задач механики деформируемого твердого тела 20m
        В данной работе рассматривается программный комплекс для моделирования задач распространения динамических волновых возмущений в твердых телах. Численное моделирование распространения динамических волновых возмущений в твердых телах используется для решения широкого круга задач. Прежде всего это задачи сейсморазведки, сейсмики и сейсмостойкости. Численное моделирование распространения сейсмических волн представляет существенную часть работ при проведение геологоразведки в нефтяной отрасли. Математическое моделирование проводится в различных геологических средах, в том числе слоистых средах и средах с наличием различных неоднородностей (например, трещины или каверны). Задачи такого рода представляются очень ресурсоемкими с точки зрения вычислительных ресурсов. Область вычисления, как правило, представляет собой сейсмический куб с длиной ребра от 1 км до 10 км. В то же время, неоднородности могут быть размером в несколько метров. Задачи моделирования процессов сейсмостойкости также являются сильно разно масштабными. Размеры объектов и неоднородностей могут различаться в сотни и тысячи раз. Учет эффектов такого рода требует привлечения современных высопокропзводительных вычислительных систем. Комплекс работает на двумерных и трехмерных криволинейных блочных сетках с наличием неоднородностей. Для численного интегрирования применяются сеточно-характеристические и конечно-разностные схемы 2-4 порядка точности. Целью работы было исследование применения различных современных технологий для распараллеливания используемых численных алгоритмов на высокопроизводительных вычислительных системах и их внедрение в существующий программный пакет. Код распараллелен используя технологию MPI. Реализована низкоуровневая оптимизация кода с использованием потоковых SIMD инструкций центральных процессоров SSE и AVX. В настоящее время достигнута эффективность распараллеливания до 70 % используя только технологию MPI при масштабировании до 16 тысяч вычислительных ядер. В системах с общей памятью алгоритм распараллелен используя технологию OpenMP. Реализована гибридная схема распараллеливания MPI+OpenMP. Также код распараллелен используя технологию CUDA, что дает до ускорение до 50 раз по сравнению с одним ядром CPU. Программа может использовать несколько карточек в рамках одного хоста, получены первые результаты по работе CUDA в связке с MPI. Исследование выполнено при частичной финансовой поддержке гранта Президента РФ МК-3383.2014.9.
        Speaker: Nikolay Khokhlov (Moscow Institute of Physics and Technology)
        Slides
      • 11:40
        Numerical Simulation of Complex Seismic Problems in Heterogeneous Media using High-Performance Computing Systems 20m
        Numerical simulation of seismic processes in heterogeneous media has a numerous applications: oil and gas seismic survey process, global planet model creation and improvements, etc. This approach has a lot of advantages comparing with natural experiments: low cost, high precision and ability of changes medium structure arbitrarily. In this work the new approach for modeling of seismic processes in complex heterogeneous (containing inclusions, cracks, holes, etc.) media is described. It is based on the solution of hyperbolic system of equations for elastic media. At the initial stage the structured curvilinear mesh is generated. All heterogeneous is depicted at this stage with their borders. For example, infinitesimal long crack has two sides and a set of nodes on both of them. Secondly, we solve equations numerically using grid-characteristic method. The main advantage of this method is the possibility of setting correct contact and border conditions combined with high precision of calculations. It is possible explicitly to model fluid and gas filled cracks without crucially mesh refinement. For this purpose special conditions are applied at all steps of calculations. One of the drawbacks of direct solution of hyperbolic equations comparing with rough semi-analytical solution is the increasing time of computations. To eliminate this problem the research software was developed with realization of spatial approach for parallel computations. Using MPI technology at the initial step whole mesh is separated between all available processors\cores to load them equally. According to the empirical tests the scalability of parallel algorithms is about 80 % up to 16 000 cores at least. A set of interesting practical results were obtained using proposed method. In the report the results of modeling seismic process (including intensive earthquake) in the Earth model will be shown. Ability of modeling fractured media allowed us to obtain seismic response from cluster of vertical fluid-filled geological cracks in full 3D case. The intensive of this response was compared with the case of gas-filled cracks. The research was partially supported by the Fellowship of Russian President СП-2548.2013.5.
        Speaker: Mr Vasily Golubev (Moscow Institute of Physics and Technology)
        Slides
      • 12:00
        Accelerating gaze-tracking system with CUDA 20m
        Gaze-tracking has the wide range of application: such as human-computer interaction, neurophysiological research, security systems, and car accidents prevention systems. Tracking of gaze direction can be performed in real-time or recorded and then post-processed. In this research real-time tracking is the point of interest, since it gives immediate response to the user and can be applicable to computer control. And the most curtail property for real-time performance is the speed of processing, so the CUDA technology is used to accelerate the developed system. The developed gaze-tracking system applies a step by step approach of gaze detection. First of all the video stream is captured and each frame is converted to grey scale and mirrored. Then the face is detected on the image using Haar Cascades. Knowing the face position, it is easy to find eye region. Based on anatomical features of the human face, it is assumed that the eye is located on the top one-third of the face with width and height – 35% and 30% of the face’s size correspondingly. After the eye region is detected, the eye centre is localised. This step runs in parallel for both left and right eyes. The vector field of image gradients is computed through the first partial derivatives. To decrease computational complexity only gradient vectors with significant magnitude are computed. The threshold is calculated dynamically for every case according to the formula: 0.3 * standard deviation + mean of the gradients’ magnitude. As a result the centre of pupil is detected. Parallel to the eye centre localisation runs a similar operation of reflection from an IR diode centre detection. The only difference is that everything is performed to an inverted image. The final step is gaze direction vector estimation. It is accomplished with the help of some preliminary calibration, when a user should consequentially look at 5 points on the screen. Then the relative position of pupil centre and reflection is converted to gaze direction vector. The whole processing of each frame takes approximately 17 ms, so it can track gaze with the speed of 60 fps. However, the application of asynchronous streams in CUDA helps to overlap frames processing. In other words, when the one frame is processed the next is read/written to the CPU or GPU memory. It gives the opportunity to track gaze at 120 fps with insignificant lag of 1-2 frames.
        Speakers: Mrs Elena Sibirtseva (2 National Research University Higher School of Economics), Prof. Ivan Gostev (JINR LIT)
        Slides
      • 12:20
        Develop a successful Big Data Strategy with IBM System Storage solutions 20m
        Speaker: Александр Рейтман
        Slides
      • 12:40
        IBM Platform Computing: эффективное использование вычислительных ресурсов 20m
        Speaker: Иван Зиновьев
        Slides
      • 13:00
        3D molecular dynamic simulation of thermodynamic equilibrium problem for heated nickel 20m
        This work is devoted molecular dynamic modeling of the thermal impact processes on the metal sample consisting of nickel atoms. For the decision of this problem the continuous mathematical model on the basis of the classical Newton mechanics equations is used, the numerical method using in the basis the Verlet scheme is chosen, the parallel algorithm is offered and its realization within the MPI and OpenMP technologies is executed. By means of the developed parallel program the investigation of thermodynamic equilibrium of nickel atoms system under the conditions of heating a sample to desired temperature was executed. In numerical experiments both optimum parameters of a calculation procedure, and physical parameters of analyzed process are defined. The received numerical results are well corresponding to known theoretical and experimental data.
        Speaker: Dr Victoria Podryga (Keldysh Institute of Applied Mathematics)
      • 13:20
        Модель потока работ для автоматизации многодисциплинарных инженерных расчетов 20m
        В настоящее время принятие высокоэффективных конструкторских решений невозможно без проведения комплексного многодисциплинарного моделирования и анализа. Для этого инженеру нужен не только инструмент автоматизации отдельных расчетов, но и интеграционная среда, позволяющая связать различные физические модели в единую расчетную схему, что открывает возможность проведения полноценной многодисциплинарной оптимизации. В общем случае, такая расчетная схема содержит множество итеративных процессов, в частности, оптимизационные циклы, относящиеся к различным дисциплинам. Одна из основных задач, стоящих перед разработчиками интеграционной среды, --- разработать такую модель потока работ, которая, с одной стороны, позволила бы в простом интуитивно понятном виде составлять сложные расчетные схемы с условиями и циклами, а с другой --- была бы эффективной с точки зрения утилизации доступных вычислительных ресурсов. В данной работе предлагается к рассмотрению модель потока работ для автоматизации многодисциплинарных инженерных расчетов, разработанная с учетом приведенных выше требований.
        Speaker: Alexander Prokhorov (IITP RAS, DATADVANCE)
        Slides
      • 13:40
        КРАУДФАНДИНГ В ОРГАНИЗАЦИИ ПОСТРОЕНИЯ РАСПРЕДЕЛЕННОЙ GRID-СИСТЕМЫ КОНСОЛИДАЦИЯ ЭЛЕКТРОННЫХ БИБЛИОТЕЧНЫХ И ИНТЕРНЕТ РЕСУРСОВ 20m
        В статье рассматриваются организационные вопросы построения распределенной Grid-системы консолидации библиотечных и Интернет-ресурсов, концепция которой описана в [1]. В дальнейшем участником Grid-системы будем называть субъекта, размещающего цифровую литературу в системе (узел-поставщик), а пользователем — субъекта, осуществляющего поиск, просмотр и скачивание полных текстов книг (узел-потребитель). Одним из важнейших направлений в построении указанной системы является вовлечение как можно большего числа участников в процесс накопления и описания цифровой литературы. Причем такими участниками могут быть как юридические лица — государственные, частные библиотеки, научные учреждения, издательства, так и физические лица — ученые, сотрудники различных организаций, использующие в своей повседневной деятельности большое количество научной литературы и занимающиеся ее хранением на своих персональных компьютерах. Итак, одним из направлений привлечения участников может стать краудфандинг оцифровки книг. Краудфандинг — это коллективное сотрудничество людей, которые добровольно объединяют свои финансовые ресурсы, чтобы поддержать усилия других людей или организаций. На практике это выглядит следующим образом: организация, имеющая какую-либо идею, но нуждающаяся в финансовых средствах для ее реализации, размещает ее описание и калькуляцию предполагаемых расходов на специальной Интернет-платформе. Любой человек, заинтересованный в реализации проекта, может внести одну из указанных фиксированных сумм на счет этой платформы. В случае, если набирается требуемая сумма — она перечисляется разработчику проекта, в противном случае денежные средства возвращаются всем участникам. Примером таких краудфандинговых платформ могут служить [2]. В настоящее время реализовано множество проектов, большая часть из которых относится либо к разработке компьютерных игр, либо к созданию различных технических устройств (гаджетов). Показательным является пример успешного сбора средств в России на издательство научно-популярных книг [3]. Применительно к библиотечной Grid-системе целью сбора средств может стать оцифровка больших объемов редкой литературы, доступ к бумажным копиям которой ограничен по причине малого количества сохранившихся экземпляров. Стимулом для внесения средств является преимущественный (ранний) доступ к оцифрованным изданиям. В публичный (бесплатный) доступ данная литература должна попадать по прошествию значительного периода времени после оцифровки. Для привлечения издательств к пополнению хранилища может стать возможность введения платного скачивания части литературы. Таким образом, в системе будет функционировать полноценный каталогизированный Интернет-магазин цифровых изданий с единой системой поиска книг. Следовательно, издательства при минимальных затратах получат еще один канал реализации цифровой литературы. Еще одним способом вовлечения участников может стать размещение рекламной информации при просмотре каталога организации. Средства, полученные от рекламодателей могут пропорционально распределяться между участниками в зависимости от их популярности среди пользователей системы. Удачным примером подобного подхода может служить популярный видеохостинг YouTube [4]: при просмотре видеороликов пользователь сначала видит рекламный ролик, и чем больше просмотров набирает конкретный видеоматериал, тем большую сумму зарабатывает его автор. Для повышения качества размещаемых материалов целесообразно внедрение рейтинговой системы: каждому участнику, в зависимости от числа скачиваний размещенных им полных текстов и оценок пользователей присваивается определенный рейтинг, в зависимости от которого участник получает дополнительные нефинансовые привилегии (более высокое место в поисковой выдаче, право изменения оформления своего каталога, увеличение минимального количества узлов — резервных держателей полных текстов книг, и т.д.). При внедрении указанных мер поощрения участников Grid-системы, строго необходимыми являются гарантии соблюдения авторских прав. В противном случае, к проблемам нарушения законодательства добавятся риски выхода из системы издательств, если у платных книг в этой же системе будут присутствовать бесплатные копии. Поэтому важным аспектом становится регистрация и строгая фильтрация участников: с каждым необходимо заключать специальное соглашение, в котором, с одной стороны, участник обязуется не нарушать авторские права, а с другой стороны получает гарантии выполнения указанных выше финансовых мер привлечения. Каждая заявка на регистрацию должна рассматриваться индивидуально: доступ к пополнению каталога Grid-системы должны иметь только организации определенных видов (библиотеки, научные и образовательные учреждения, издательства) и публичные физические лица (дорожащие своей репутацией, например известные ученые, деятели искусств и т.д.). Изложенные в настоящей статье организационные вопросы находятся на стадии идей и нуждаются в глубокой проработке и финансовой оценке, которая невозможна без привлечения сторонних специалистов, прежде всего экономистов и юристов. Однако, их изложение в общем виде позволяет представить возможные способы взаимодействия с участниками Grid-системы. Литература 1. Олейников Б.В., Шалабай А.И. Консолидация электронных библиотечных и инетрнет-ресурсов для образовательных и научных целей на основе grid-технологий. // Распределенные вычисления и грид-технологии в науке и образовании. Труды 5-й международной конференции (Дубна, 16-21 июля 2012 г.). – Дубна: ОИЯИ, 2012 – 419 с. ISBN 978-5-9530-0345-2. - С.365-370 2. Пример краудфандинговой платформы 3. Как мы собрали 823376 pуб. на печать книги через краудфандинг // http://habrahabr.ru/company/gtv/blog/207366/ 4. Видеохостинг YouTube // http://www.youtube.com/
        Speaker: Dr Борис ОЛЕЙНИКОВ (ФГАОУ ВПО «Сибирский Федеральный Университет»)
    • 14:00 14:30
      Closing