Symulacja w Badaniach i Rozwoju
Transkrypt
Symulacja w Badaniach i Rozwoju
Symulacja w Badaniach i Rozwoju Redaktor Naczelny prof. dr hab. Leon BOBROWSKI Vol. 2 No. 2/2011 Redaktor numeru: prof. dr hab. inŜ. Tadeusz NOWICKI Polskie Towarzystwo Symulacji Komputerowej Warszawa 2011 Rada Naukowa Prof. dr hab. inŜ. Roman Bogacz (PK, IPPT PAN) – Przewodniczący Prof. dr hab. Algirdas Bargelis (Litwa) Prof. dr hab. Leon Bobrowski (PB, IBiB PAN) Prof. dr hab.inź.Yevgeniy Bodyanskiy (Ukraina) Prof. dr hab. inŜ. Andrzej Chudzikiewicz (PW) Prof. dr hab. Kurt Frischmuth (Niemcy) Dr hab. inŜ. Kazimierz Furmanik (AGH) Prof. dr hab. inŜ. Andrzej Grzyb (PK) Prof. dr Ralph Huntsinger (USA) Prof. dr hab. Vladimir Marchenko (Białoruś) Prof. dr hab. inŜ. Volodymyr Mashtalir (Ukraina) Dr hab. inŜ. Marek Pietrzakowski (PW) Prof. dr Borut Zupančič (Słowenia) Redaktorzy Tematyczni Prof. dr hab. inŜ Tadeusz Nowicki (nauki o obronności) Prof. dr hab. inŜ. Zygmunt StrzyŜakowski (automatyka i robotyka, transport) Prof. dr hab. inŜ. Andrzej Tylikowski (mechanika, budowa i eksploatacja maszyn) Sekretarz Redakcji Dr Zenon SOSNOWSKI Adres Redakcji Polskie Towarzystwo Symulacji Komputerowej c/o IBIB PAN ul. Ks. Trojdena 4 (pok. 304) 02-109 Warszawa Redakcja informuje, Ŝe wersją pierwotną (referencyjną) kwartalnika jest wydanie papierowe (ISSN 2081-6154). Nakład: 100 egz. Druk BEL Studio sp. z o.o. 01-355 Warszawa ul. Powstańców Śl. 67 B tel.fax (+48 22) 665 92 22 e-mail: [email protected] www.bel.com.pl Publikacja dofinansowana przez Ministerstwo Nauki i Szkolnictwa WyŜszego Spis treści Urszula Ferdek, Jan Łuczko Analiza ćwiartkowego modelu zawieszenia pojazdu z tłumikiem hydraulicznym (The analysis of the quarter model of the vehicle suspension with the hydraulic damper) ................................................. 67 Kurt Frischmuth Limit cycles in systems with delay (Cykle graniczne w układach z opóźnieniem) 75 ...................... Michał Kapałka Symulacja zachowania tłumu w dynamicznym otoczeniu (Simulation of crowd behavior in dynamic environment) ........ 83 Wojciech Kozłowski, Andrzej Surowiecki Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny (Simulation model of gabion wall element stabilizing communication embankment) ............................................ 93 Tomasz Janusz Teleszewski, Piotr Rynkowski Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody uŜytkowej metodą brzegowych równań całkowych (Computer simulation of heat transfer in walls with hot water installations using Boundary Element Method) ................. 103 Kazimierz Worwa Using an optimization methods to selection the best software developer (Wykorzystanie metod optymalizacji do wyznaczania najlepszego producenta oprogramowania) ......................... 113 65 66 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Urszula FERDEK, Jan ŁUCZKO Politechnika Krakowska, Al. Jana Pawła II 37, 31-864 Kraków E-mail: [email protected], [email protected] Analiza ćwiartkowego modelu zawieszenia pojazdu z tłumikiem hydraulicznym 1 Wstęp W celu zapewnienia komfortu jazdy oraz odpowiedniego poziomu bezpieczeństwa wykonywane są analizy tzw. ćwiartkowych lub połówkowych [1,3,5] modeli pojazdów. Do oceny jakości działania zastosowanych w układach zawieszenia amortyzatorów wprowadza się zwykle dwa kryteria, uwzględniające minimalizację drgań nadwozia samochodu (pionowych, poprzecznych i wzdłużnych), wywołanych pokonywaniem nierówności nawierzchni drogi oraz utratę przyczepności kół od podłoża. Pierwsze kryterium odpowiada za komfort jazdy, natomiast drugie związane jest z bezpieczeństwem, ponieważ okresowe odrywanie się kół pojazdu zmniejsza skuteczność przenoszenia sił napędu, hamowania oraz pogarsza jego sterowność. Parametry amortyzatora powinny być tak dobrane, aby stanowić kompromis pomiędzy wspomnianymi wymaganiami. Obecnie stosowane amortyzatory mają najczęściej niesymetryczne oraz nieliniowe charakterystyki. W pracy [2] wprowadzono model dwururowego amortyzatora hydraulicznego. Analizując równania różniczkowe opisujące zmiany ciśnień oleju w poszczególnych komorach amortyzatora wyznaczono zależność siły tłumienia od przemieszczeń i prędkości względnych. Wykazano, że charakterystyki tłumika zależą w sposób istotny od parametrów konstrukcyjnych zaworów. Charakterystyki te są niesymetryczne z uwagi na fakt, że przepływ oleju między sąsiednimi komorami podczas kompresji i odbicia odbywa się poprzez różne kanały. Wynika to z założenia, że podczas pokonywania wybrzuszenia zawieszenie ma się „poddać” w celu zmniejszenia ruchu masy resorowanej. Podczas pokonywania wgłębienia zawieszenie ma dbać o nieprzerwany kontakt koła z podłożem. Dlatego podczas ściskania siła tłumienia jest mniejsza niż podczas rozciągania. Charakterystyki są również nieliniowe ponieważ dla małych różnic ciśnień w komorach, co ma miejsce dla małych prędkości, dodatkowe zawory przelewowe są zamknięte i dominuje przepływ przez małe otwory w tłoczysku. Dopiero po przekroczeniu pewnej wartości ciśnienia (prędkości granicznej) następuje otwarcie zaworów przelewowych, co skutkuje zmniejszeniem oporów przepływu. W niniejszej pracy zaproponowano uproszczony opis amortyzatora hydraulicznego, wykorzystując w tym celu model Spencera [4,6]. Porównując otrzymane charakterystyki z charakterystykami uzyskanymi dla amortyzatora hydraulicznego wyselekcjonowano parametry odpowiedzialne za efekty nieliniowe oraz niesymetrię charakterystyki. Następnie poddano analizie ćwiartkowy model pojazdu, badając wpływ tych parametrów na wprowadzone wskaźniki jakości. 67 Urszula FERDEK, Jan ŁUCZKO 2 Model układu Rys. 1. Ćwiartkowy model pojazdu Fig. 1. Quarter vehicle suspension model Model badanego układu przedstawiono na rys. 1. Współrzędne y1 i y2 opisują odpowiednio ruch masy nieresorowanej m1, przypadającej na jedno koło (masa koła i osi pojazdu, łożysk, hamulców oraz niektórych elementów układu przeniesienia napędu) oraz masy resorowanej m2 (¼ pozostałej masy pojazdu). Współrzędna y0 jest zadanym wymuszeniem kinematycznym w postaci: y0=asinωt. Właściwości tłumiące i sprężyste opony określają odpowiednio parametry c0 i k0, natomiast parametr kr jest współczynnikiem sztywności zawieszenia. Amortyzator hydrauliczny opisują parametry modelu Spencera: k1, c1, k2, c2, α0, β0, γ0, A0 oraz parametr ε, decydujący o niesymetrycznych własnościach charakterystyki tłumika. Przyjęto dalej, że wartość siły tłumienia zależy od jej znaku następująco: F = F0 (1 + ε sgn F0 ) (1) co zapewnia pożądaną większą wartość siły w procesie odbicia (dla F0>0 lub dla y& 2 − y& 1 > 0 ). Siłę F0 określa wzór: F0 = c 2 ( y& 2 − y& 3 ) + k 2 ( y 2 − y1 ) (2) przy czym współrzędna y3 jest wyznaczana z warunku równowagi sił, działających na bezmasowy element modelu Spencera: c1 ( y& 3 − y& 1 ) + k 1 ( y 3 − y1 ) + α 0 z 0 = c 2 ( y& 2 − y& 3 ) (3) 68 Analiza ćwiartkowego modelu zawieszenia pojazdu z tłumikiem hydraulicznym Występująca we wzorze (3) zmienna z0, powodująca tworzenie się histerezy, jest rozwiązaniem równania różniczkowego pierwszego rzędu: z& 0 = A0 y& − γ 0 y& | z 0 | n − β 0 | y& || z 0 | n −1 z 0 (4) gdzie y =y3–y1. Parametry A0, γ0, β0 oraz n wpływają na kształt pętli histerezy. Ruch elementów o masach m1, m2 opisują następujące równania różniczkowe: m1 &y&1 = −c 0 ( y& 1 − y& 0 ) − k 0 ( y1 − y 0 ) + k r ( y 2 − y1 ) + F − m1 g m2 &y&2 = − k r ( y 2 − y1 ) − F − m2 g (5) Po wprowadzeniu zmiennych bezwymiarowych, zdefiniowanych następująco: τ = ω0t xj = yj / a z = z 0 / z max (6) gdzie: A0 kr ω0 = m2 β0 + γ 0 drgania układu opisuje układ równań różniczkowych o postaci: z max = n (7) µx1′′ + ζ 0 x1′ − ζ 1 x3′ + (1 + κ 0 ) x1 − κ 2 x 2 + f = ζ 0 x ′0 + κ 0 x 0 − µλ x ′2′ + x 2 − x1 − f = −λ x3′ = [ζ 1 x1′ + ζ 2 x′2 − κ1 ( x3 − x1 ) − αz ] /(ζ 1 + ζ 2 ) (8) z ′ = A{1 − [γ + β sgn( z ( x3′ − x1′))] | z | }( x3′ − x1′) n przy czym x′j i z′ są pochodnymi względem zmiennej τ. Bezwymiarowa siła tłumienia jest wyznaczana ze związku: f = [ζ 2 ( x ′2 − x3′ ) + κ 2 ( x ′2 − x1′ )]{1 + ε sgn[ζ 2 ( x ′2 − x3′ ) + κ 2 ( x ′2 − x1′ )]} (9) W równaniach (8,9) przyjęto następujące oznaczenia: η = ω / ω0 α = α 0 z max / k r κ j = k j / kr 3 µ = m1 / m2 A = A0 / z max β = β 0 /( β 0 + γ 0 ) γ = γ 0 /( β 0 + γ 0 ) ζ j = c j / m2ω 0 λ = g /ω a (10) 2 0 Charakterystyki siły tłumienia W obliczeniach numerycznych skupiono się na zbadaniu wpływu parametrów charakteryzujących amortyzator hydrauliczny (ε, ζ1, ζ2, κ1, κ2, α, β, γ i A), ustalając wartości następujących bezwymiarowych parametrów: λ=25, µ=0.11, κ0=9, ζ0=0 w oparciu o dane: m1=28kg, m2=255kg, kr=20000N/m, k0=180000N/m, c0≈0Ns/m, a=0.005m. Na podstawie danych literaturowych oszacowano wartości współczynników κ1=0.02 i κ2=0.01 oraz parametrów β i γ (przyjęto β=γ=0.5). Po wstępnych symulacjach stwierdzono, że największy wpływ na rezultaty analiz mają parametry: α, ε, ζ1 i ζ2 oraz nieco mniejszy, tylko w zakresie małych wartości, parametr A. Ze zmniejszaniem wartości współczynnika A zwiększa się szerokość pętli histerezy charakterystyki tłumika. Jednak charakterystyki amortyzatora, opisanego modelem Spencera 69 Urszula FERDEK, Jan ŁUCZKO i dokładniejszym modelem tłumika hydraulicznego (TH), opisanym w pracy [2] są do siebie zbliżone (rys. 2) tylko dla dużych wartości A (przyjęto dalej A=400). Na rys. 2 przedstawiono typowe charakterystyki amortyzatora, uzyskane przy założeniu (jak w pracy [2]), że przemieszczenie xw=x2-x1 zmienia się w sposób harmoniczny (poddano analizie wydzielony z układu amortyzator). W obliczeniach przyjęto stałą wartość amplitudy wymuszenia, zmieniając tylko jego częstość. Założono też: α=1, ε=1/2, ζ1=2/3, ζ2=2. Dla ε=1/2 maksymalna siła podczas odbicia jest około trzykrotnie większa niż w trakcie sprężania, ponadto, dla przyjętych wartości parametrów ζ1, ζ2 zastępczy współczynnik tłumienia ζz=ζ1ζ2/(ζ1+ζ2)=0.5 określa średnie nachylenie charakterystyki w zakresie wyższych prędkości, a odpowiada mu zalecana dla tłumików hydrauliczych wartość 0.25 bezwymiarowego współczynnika tłumienia układu liniowego (α=0, ε=0). η = 0.5 η=1 η=2 η=4 model TH 4 odbicie f f 4 η = 0.5 η=1 η=2 η=4 model Spencera 2 2 0 0 sprężanie -2 -1 0 x2-x1 1 -2 -4 0 x2' - x1' b) a) Rys. 2. Wpływ częstości wymuszenia na charakterystyki tłumika: a) f(xw), b) f(vw) Fig. 2. The impact of frequency on the characteristics of the damper: a) f(xw), b) f(vw) 4 Dla prawidłowej pracy amortyzatora istotne znaczenie ma położenie punktu przegięcia charakterystyki oraz jej nachylenie w zakresie niższych prędkości. W tłumiku hydraulicznym o kształcie charakterystyki decydują parametry zaworów, w tym przede wszystkim powierzchnie przekrojów odpowiednich kanałów przepływowych. W modelu zastępczym położenie punktu przegięcia zależy głównie od parametru α (rys. 3a dla: η=2, ε=1/2, ζ1=2/3, ζ2=2), a nachylenie charakterystyki od współczynników ζ1 i ζ2 (lub dla zadanej wartości ζz=0.5 od jednego z tych współczynników, np. ζ1 – rys. 3b dla: η=2, ε=1/2, α=1). 70 Analiza ćwiartkowego modelu zawieszenia pojazdu z tłumikiem hydraulicznym 3 α=0 α = 0.5 α = 1.0 α = 1.5 3 ζ 1=1 ζ 1=0.85 ζ 1=0.70 ζ 1=0.55 2 f f 2 1 1 0 0 -1 -1 -2 0 x2' - x1' -2 2 0 2 x2' - x1' a) b) Rys. 3. Zależność siły tłumienia od prędkości względnej: a) wpływ parametru α, b) wpływ parametru ζ1 Fig. 3. Force-velocity relation diagram: a) the impact of parameter α, b) the impact of parameter ζ1 4 Charakterystyki częstotliwościowe układu W celu zbadania efektywności tłumienia drgań wprowadzono wskaźnik Θ, zdefiniowany jako wartość skuteczna prędkości x′2 masy resorowanej, natomiast do oceny stanu bezpieczeństwa wykorzystano wskaźnik EUSAMA ρ, definiowany jako stosunek minimalnej siły nacisku koła na podłoże do nacisku statycznego, czyli będący miarą przyczepności kół do podłoża. 2.0 1.5 0.8 1.0 0.6 0.5 0.0 α =4 α=2 α=1 α = 1/2 α=0 1.0 ρ Θ α =4 α=2 α=1 α = 1/2 α=0 0.4 0.2 0 3 6 9 12 η 15 0 3 6 9 a) b) Rys. 4. Wpływ amplitudy wymuszenia: a) wskaźnik Θ, b) wskaźnik EUSAMA Fig. 4. The impact of forcing amplitude: a) index Θ, b) index EUSAMA 12 η 15 Na rys 4 przedstawiono charakterystyki częstotliwościowe układu wyznaczone dla: ε=0.5, ζ1=0.55, ζ2=5.5 (czyli ζz=0.5) oraz różnych wartości parametru α. Z analizy wykresów wskaźnika Θ wynika wartość optymalna parametru α, bliska wartości α=1. Wtedy obserwuje się największe wytłumienie drgań w zakresie pierwszego rezonansu (poprawa komfortu jazdy). Jednak dla takiej wartości α oraz wartości mniejszych w zakresie drugiego rezonansu zmniejsza się znacznie wartość wskaźnika ρ, czyli pogarsza się bezpieczeństwo jazdy. 71 Urszula FERDEK, Jan ŁUCZKO 1.5 4 ζ1=1 ζ1=0.85 ζ1=0.70 ζ1=0.55 3 Θ δ 1.0 ζ1=1 ζ1=0.85 ζ1=0.70 ζ1=0.55 2 0.5 1 0.0 0 1 2 η 3 0 4 1 2 η 3 a) b) Rys. 5. Wpływ parametrów ζ1 i ζ2: a) wskaźnik Θ, b) wskaźnik δ Fig. 5. The impact of parameters ζ1 i ζ2: a) index Θ, b) index δ 4 Współczynniki tłumienia ζ1 i ζ2 (dla zadanego ζz=0.5) mają wpływ na charakterystyki częstotliwościowe głównie w zakresie pierwszego rezonansu. Z tego powodu na rys. 5 ograniczono przedział częstości wymuszenia. Oprócz wskaźnika Θ pokazano również drugi wskaźnik informujący o efektywności tłumienia drgań, a będący różnicą maksymalnego i minimalnego wychylenia masy resorowanej ( δ = x2max − x2min ). Do obliczeń przyjęto wartości parametrów: ε=0.5 i α=1. Ze zmniejszaniem wartości ζ1 (z równoczesnym odpowiednim wzrostem ζ2) rośnie nachylenie charakterystyki amortyzatora (rys. 3b), czyli zwięsza się rozpraszanie energii. Amplitudy przemieszczeń i prędkości ulegają zmniejszeniu w pierwszym zakresie rezonansowym, jednak dla zbyt małych ζ1 pogarsza się tłumienie drgań poza rezonansem (rys.5). W celu oceny wpływu parametru ε na wskaźniki jakości δ i ρ poddano analizie układ z wymuszeniem symulującym wstrząsy (np. pokonywanie przez pojazd przeszkody). Wymuszenie impulsowe opisano tzw. funkcją „rounded pulse”, zdefiniowaną następująco [4]: 1 x0 (τ ) = he 2 (ντ ) 2 exp(−ντ ) 4 (11) Parametr h określa wysokość przeszkody, a parametr ν jest związany z prędkością przejazdu przez tą przeszkodę. 1.6 ε =0 ε = 1/4 ε = 1/2 ε = 3/4 ε =0 ε = 1/4 ε = 1/2 ε = 3/4 1.0 0.9 TL TL ρ δ/h 2.0 0.8 1.2 0.7 0.8 0.0 0.5 1.0 1.5 2.0 ν 2.5 0.6 0.0 a) b) Rys. 6. Wpływ parametru ε: a) wskaźnik δ, b) wskaźnik ρ Fig. 6. The impact of parameter ε: a) index δ, b) index ρ 72 0.5 1.0 1.5 2.0 ν 2.5 Analiza ćwiartkowego modelu zawieszenia pojazdu z tłumikiem hydraulicznym Na rys. 6 przedstawiono wykresy wskaźników δ i ρ, sporządzone dla wybranych wartości parametru ε (przyjęto: α=1, h=10, ζ1=0.55, ζ2=5.5). Pokazano również odpowiednie wykresy otrzymane dla symetrycznego liniowego tłumika wiskotycznego (TL dla ε=0, α=0). Wraz ze zwiększaniem parametru ε, czyli niesymetrii charakterystyki amortyzatora, następuje bardzo wyraźne zmniejszenie ekstremalnych wychyleń (wskaźnika δ – rys. 6a). Uwaga ta jest słuszna głównie dla przypadku pokonywania wzniesień (dla h>0). Zbytnie zwiększanie wartości ε jest niewskazane w przypadku pokonywania zagłębienia (h<0), a także wpływa niekorzystnie na wskaźnik ρ w zakresie większych prędkości jazdy (dla dużych wartości ν). 5 Wnioski Z przeprowadzonych analiz numerycznych modelu ćwiartkowego samochodu z amortyzatorem hydraulicznym opisanym modelem Spencera można wyciągnąć następujące wnioski: • Największy jakościowy wpływ na charakterystyki częstotliwościowe ćwiartkowego modelu samochodu mają parametry α, ε, ζ1 i ζ2. Analiza wprowadzonych wskaźników jakości pozwala oszacować optymalne wartości wymienionych parametrów, a więc również wyznaczyć pożądane charakterystyki amortyzatora. • Otrzymane charakterystyki modelu Spencera z uwagi na ich dużą zbieżność z charakterystykami modelu tłumika hydraulicznego mogą być podstawą doboru parametrów geometrycznych i fizycznych elementów konstrukcyjnych zaworów tłumika hydraulicznego. • Przedstawione rezultaty świadczą o niezadawalających wartościach wskaźnika ρ odpowiedzialnego za bezpieczeństwo jazdy zwłaszcza w zakresie wyższych częstości wymuszeń. Poprawa tego wskaźnika może być dokonana tylko po zastosowaniu aktywnych lub semi-aktywnych układów wibroizolacji. • W przypadku zastosowania w tłumiku cieczy magnetoreologicznej zamiast oleju, wprowadzony zastępczy model tłumika hydraulicznego znacznie ułatwia projektowanie układu semi-aktywnego. Sterując napięciem można wpływać na wartości parametrów α, ζ1 i ζ2 modelu Spencera. Literatura 1. 2. 3. 4. Chandra Shekhar N., Hatwal H., Mallik A.K., Performance of non-linear isolators and absorbers to shock excitations, Journal of Sound and Vibration, 227(2), 293-307, 1999. Ferdek U., Łuczko J., Modeling and analysis of a twin-tube hydraulic shock absorber, Journal of Theoretical and Applied Mechanics (praca w druku). Ferreira C., Ventura P., Morais R., Valente A., Neves C., Reis M., Sensing methodologies to determine automotive damper condition under vehicle normal operation, Sensour and Actuators A, 156, 237-244, 2009. Łuczko J., Porównanie dynamicznych odpowiedzi semiaktywnych tłumików opisanych modelami Bouc-Wena i Spencera, Czaspopismo Techniczne (praca w druku). 73 Urszula FERDEK, Jan ŁUCZKO 5. 6. Prabakar R.S., Sujatha C., Narayanan S., Optimal semi-active preview control response of a half car vehicle model with magnetorheological damper, Journal of Sound and Vibration, 326, 400-420, 2009. Spencer Jr B.F., Dyke S.J., Sain M.K., Carlson J.D., Phenomenological Model for Magnetorheological Dampers, ASCE Journal of Engineering Mechanics, 123, 3, 230-238, 1996. Streszczenie W pracy poddano analizie jakościowej ćwiartkowy model zawieszenia pojazdu. Występujący w układzie zawieszenia tłumik hydrauliczny opisano zmodyfikowanym modelem Spencera. Na podstawie przeprowadzonych analiz wyselekcjonowano parametry mające decydujący wpływ na kształt charakterystyki tłumika. Wyznaczono również charakterystyki częstotliwościowe układu w celu zbadania wpływu istotnych parametrów modelu na wprowadzone wskaźniki jakości związane z bezpieczeństwem jazdy oraz efektywnością tłumienia drgań. The analysis of the quarter model of the vehicle suspension with the hydraulic damper Summary The paper discusses the analysis of the quarter model of the vehicle suspension. The hydraulic damper existing in the suspension system has been described using the modified Spencer model. Based on the performed analyses, the parameters having the major impact on the shape of the damper characteristics have been chosen. Additionally, the frequency characteristics of the model have been investigated, for the purpose of researching the impact of several essential model parameters on the performance factors corresponding to the driving safety and the efficiency of the shock absorber. 74 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Kurt FRISCHMUTH University of Rostock, Institute for Mathematics E-mail: [email protected] Limit cycles in systems with delay 1 A Simple Delay Model We start from an ordinary model without delay which is commonly used to describe relaxation processes. A scalar quantity u=u(t) is assumed to be in equilibrium at u=u0=0. A positive deviation from the equilibrium position results in a negative rate and vice versa. Formally, we write this as u& (t ) = g (u (t ) ) , (1) where g may be in the simplest case a linear function like g(u)=−αu. In general, we assume g to be monotonously decreasing on the whole of its domain R, which means α< 0. In [4, 2] the function g(u)=−|u|u=−sign(u)u2 is of special interest. In economics, deviations from the true value of a commodity act in a nonlinear way on the future evolution. In fact, depending on the size of the deviation, more dealers decide that the course is too high/low, and they place higher sell/buy orders. This is assumed to exert a pressure on the value, which is proportional to the sum of all orders. Obviously, the trivial solution u(t)=u0=0 of equation (1) is an asymptotically stable equilibrium state. Moreover, it is the only equilibrium, and it is globally attractive. Now, however, a second effect is added, which destabilizes the equilibrium. On the right-hand side a term is added, which yields further growth, whenever growth is detected. The point is that the detection of growth is based on the comparison of the present value with a recent value, the value of u at a delayed time t – d, u& (t ) = a(u (t ) − u (t − d )) + g (u (t )) , (2) In the application to exchange rate models, dealers make decisions, whether to sell or to buy, based on their own estimate of the true value in relation to the present course. But further they assess the trend by comparing the present with a remembered course. Hence, in (2) the trend is reflected by a term proportional to the difference from the latest remembered course. In the simplest case one assumes d = const. Indeed, in trade one expects a regular schedule of checking the state of matters. We scale the time axis to make this value equal to 1.0 time units. Notice that for a = d−1 , the first expression on the right-hand side is a first order approximation of the time derivative on the left-hand side. For smaller a we expect hence no qualitative change of the solution, for a =1 and larger, however, the second order contribution 75 Kurt FRISCHMUTH d2 au&&(t ) , 2 (3) begins to play a decisive role. In fact, using Taylor formula of second order as an 1 approximation of the delayed value u (t − d ) = u (t − 1) ≈ u (t ) − u& (t ) + 2 u&&(t ) , the behavior is now more like that of the equation a 0 = − u&&(t ) + (a − 1)u& (t ) + g (u (t )) 2 For a = d =1 and in the case of a linear function g(u)= −u this will be 0 = u&&(t ) + 2u (t ) , (4) (5) which leads to harmonic oscillations, while for a > 1 the amplitude will grow exponentially, starting from any small vicinity of u0 =0. Hence, in fact, for a ≥ 1 the zero solution becomes unstable. For over-linear functions g, however, the growth is limited, and solutions finally tend to a limit cycle. In more advanced models, the delay d ≥ 0 is allowed to be variable in the form d=d(u) , (6) with the only assumption of scaling, continuity and monotonicity, i.e., farther deviations from equilibrium result in shorter intervals, in which the course is checked, d(0)=1 , (7) 0≤u1≤u2 ⇒ d(0)≥d(u1) ≥d(u2) ≥0 , 0≥u1≥u2 ⇒ d(0)≥d(u1) ≥d(u2) ≥0 Now, the form of the evolution equation of the dynamical delay model is u& (t ) = a (u (t ) − u (t − d (u (t )))) + g (u (t )) , (8) (9) (10) where we deliberately did not divide the difference term by the delay. This way we reflect the ‘psychological’ element of the traders’ activity. Whenever larger deviations from the expected (zero) value of the course appear, dealers become (in their average) more and more nervous and look in shorter and shorter intervals for changes. In an academic version, this is reflected by the function d (u ) = exp(−cu 2 ) , (11) Of course, a nonsymmetric behavior for positive/negative deviations could be expected as well. Analytical studies so far are restricted to a dependence of the delay on |u|, further the functions g and d have to be such that t − d(u(t)) be always increasing. Sufficient conditions have been given in [1]. There it is also shown that for a ≤ 1 the trivial solution is stable. For a > 1 the equilibrium becomes unstable, a stable limit cycle appears. In this paper, however, we will not study the analytical properties of models like (10). Instead, we will calculate numerical solutions to initial value problems and study their behavior. In particular, we will show the difference between the constant and variable delay cases for some chosen delay functions. The numerical approach is not limited by the strong conditions imposed in [1]. The appearance of attracting limit cycles is independent of d 76 Limit Cycles in Systems with Delay being constant or not. The size and shape of cycles, however, turns out to differ considerably for both cases. 2 Simulation In models with delay the state of the system is represented by at least a certain segment of the history of the considered quantity. The state space is hence not finite dimensional, even if the temporal evolution of a single scalar value is studied. As a consequence, initial condition and the state of the system are represented in computer simulations as a vector of nodal values of the recent history of the studied quantity. In the present case, the delay is bounded by its value for the trivial state, which after scaling is set to be equal to 1. Given a model with constant delay, it is possible to use a constant sampling rate, which is an integer fraction of the delay, and thus only nodal values of u are needed to evaluate the rate of change u& (t ) . At each time step, the actual value of u is updated according to its rate of change, while the history is updated by a simple index shift. Thus the history runs through its domain like a wave in a convection problem. In the variable delay case, however, interpolation between nodal points becomes necessary. For the present application, we implemented a linear spline approximation for the evaluation of the rate. The calculation of the next value of u, i.e. for the approximation of u(t +∆t), we implemented several explicit methods, like Euler, Euler-Heun, classical Runge-Kutta and Dormand-Prince methods. With stepsizes like ∆t =0.001, all mentioned procedures give acceptable results. However, the higher order methods of Runge-Kutta type give a much better resolution of the details in phases of sudden change, such as e.g. in Fig. 5. This is decisive in the variable delay case. For many reasons, amongst others to avoid licence problems and to allow GUI controlled animation, we chose java as the environment for the implementation. A screenshot of an animation is shown in Fig. 1. For comparison and verification, we solved identical initial-value problems using matlab’s ddesd routine for differential systems with delay. Results were the same up to the assumed error margin. We remark that, in general, a simulation tool has to serve several purposes. Fig. 1. Screenshot of java simulation tool. On the horizontal axis the last time unit is presented, the marker at the right end shows the present state, the other one indicates the delay and the delayed value. Rys. 1. Zrzut z ekranu z aplikacji javy. Na osi odciętych przedstawiono ostatni jednostkowy przedział czasu, znak na prawym końcu wskazuje stan aktualny, drugi zaś pokazuje opóźnienie i stan poprzedni. 77 Kurt FRISCHMUTH One wants an interactive GUI control over animation, and at the same time a systematic manipulation of model parameters in order to perform studies of parameter sensitivity. Preferably, the first requirement should not be delayed by the second. In the simulation tool, we used different threads in order to split the numerical load between several processor cores. It is possible and desirable to assign the systematic parameter studies to several servers, while performing the actual animation on the local host. 3 Results In this section we show a selection of simulated exchange rates, based on the dynamical delay model (10). We show a temporal trajectory, starting from a given history, in Fig. 2. The nontrivial cyclic behavior seen in Fig. 2 can be observed for values of the model parameter a starting from a =1. In Fig. 3 approximated values of the amplitudes have been plotted against the value of a. Technically, a trajectory starting from a perturbed state near equilibrium has been traced over 10 cycles, the maximum of u over the next cycle has been assumed as amplitude of the limit cycle. We observe the onset of instability at around a =0.99. Further, the frequency of the limit cycle is studied, again for varying a, but for one fixed delay function d and the standard nonlinear function g. Fig. 2. Course values as function of time. After a transient phase the solution becomes periodic. The period is always longer than the maximum delay. Rys. 2. Wartości kursu jako funkcja czasu. Po fazie przejściowej rozwiązanie staje się okresowe. Okres zawsze jest dłuższy od maksymalnego opóźnienia. 78 Limit Cycles in Systems with Delay Fig. 3: Amplitudes of limit cycle as function of a. The onset of instability is at a ≈ 1. Rys. 3: Amplitudy cykli w zależności od a. Utrata stabilności następuje przy a ≈ 1. Fig. 4. Study of the frequency in dependence on parameter a. The period decreases from around 30 to 10, when a increases from 1 to 1.05 Rys. 4. Częstość cykli w zależności od a. Okres maleje od około 30 do 10, kiedy a rośnie od 1 do 1.05. It is evident, see Fig. 4, that the frequency is increasing, the larger a, the larger the amplitude, and the shorter the period of the cycles. The results presented in Figs. 3 and 4 have been obtained using background threads, as mentioned in the previous section. Next, we studied the sensitivity of the model to the choice of the delay function d. The effect of shrinking delay in states far from equilibrium results in reduced cycles, presented as phase portraits in Fig. 5. Note the non-convex shape and the sharp curvatures of the cycles in the variable delay case. The delay itself reaches its maximum when u vanishes, notice that there are phases of slower change near the equilibrium. Then, there is a quick drop of the delay to approximately 1/3 and an equally quick recovery, cf. Fig. 6. 79 Kurt FRISCHMUTH For analysis and numerical implementation, the rate of the delayed time t−d(u(t)) plays an essential role. In fact, the analysis in [1] relays on this quantity to be strictly increasing. Fig. 7 shows that this condition is not necessary. In fact, the delayed time may run backwards on short intervals. For the implementation this means that the history of the studied quantity must not be forgotten once it has been used. In fact, the same past state value maybe used more than once for comparison with future values. 4 Conclusions The considered delay model describing the dynamics of a single scalar quantity yields self-generated cycles in a certain range of model parameters, while for small parameters the trivial equilibrium solution is stable. Computer simulations are qualitatively in accordance with analytical results if the latter are applicable. Further, two different numerical methods were verified to give consistent results. A java simulation tool with graphical user interface allows to perform fast parameter studies and to quickly assess the effect of changes in model components. Fig. 5. Limit cycles for constant and variable delay on the speed vs value plane. Typically in the variable delay case, the transition through the equilibrium point leads to sharp changes of direction. Maximum deviations and speeds are smaller than for a constant delay of d = 1. Rys. 5. Cykle graniczne w przypadku stałego i zmiennego opóźnienia w płaszczyźnie aktualnej szybkości i wartości. Typowe jest, ze przy zmiennym opóźnieniu przejście przez punkt równowagi wiąże się ze znaczna zmianą kierunku. Maksymalne odchylenia kursu i szybkości są mniejsze niż przy stałym opóźnieniu równym 1. 80 Limit Cycles in Systems with Delay Fig. 6. The delay as a function of time. When approaching the equilibrium point, the delay increases, so that the retarded time hardly grows. Rys. 6. Opóźnienie jako funkcja czasu. Przy zbliżeniu do punktu równowagi wartość opóźnienia rośnie, tak że może dochodzić do stagnacji czasu opóźnionego. Fig. 7. The rate of the retarded time as function of present time. At certain moments the delayed time may run backwards – if the delay grows faster than the present time runs forward. Rys. 7. Szybkość czasu opóźnionego jako funkcja czasu aktualnego. W pewnych chwilach czas opóźniony może biec wstecz. Zdarza się to, gdy opóźnienie rośnie szybciej niż biegnie aktualny czas. It turned out that the model behavior is robust with respect to the choice of the nonlinearity g and the delay function d. In future work the model should be refined and extended. The vector case, were more than one currency is traded, several delays and nonsymmetric delay functions may occur, is still open for analysis. The simulation tool developed for the currency exchange rate model may be extended to other applications such as for instance the air flow control in Otto engines. 81 Kurt FRISCHMUTH Bibliography 1. Eugen Stumpf, A global center-unstable manifold bordered by a periodic orbit, Dissertation, Universität Hamburg, 2010 2. Hans-Otto Walther: Differentiable semiflows for differential equations with statedependent delays. Universitatis Iagellonicae Acta Mathematica 41 (2003), 57-66 3. John Mallet-Paret, George R. Sell: Systems of differential delay equations: Floquet multipliers and discrete Lyapunov functions. J. Differ Equations, 125 (1996), no. 2, 385-440 4. Alexander Erdélyi, A delay differential equation model of oscillations of exchange rates, Master’s thesis, University, Bratislava, 2003 Summary Computer simulation of real systems requires often to take into account values of crucial quantities not only at the present time, but also their recent history. Models allowing for a dependence of the rate of change on delayed values of the modeled quantity have been applied in economics to explain cycles in the exchange rates of foreign currencies. For a certain type of model equations, the existence of stable limit cycles has been shown analytically. Certain restrictive conditions on the constitutive functions, describing the behavior of traders, had to be assumed. In this paper, the analytical results are confirmed by computer simulation. Moreover, the existence of limit cycles is computationally verified under much weaker assumptions. Cykle graniczne w układach z opóźnieniem Streszczenie Symulacja komputerowa systemów rzeczywistych częstokroć wymaga uwzględnienia wartości istotnych wielkości nie tylko w chwili aktualnej, a także w chwilach przeszłych. Modele wykazujące zależność szybkości zmiany badanej wielkości od historii przebiegu zostały wprowadzone w ekonomii, żeby wyjaśnić cykliczne zmiany kursów walut. W przypadku pewnego typu równań modelowych istnienie stabilnych cykli granicznych zostało udowodnione analitycznie. W tym celu na funkcje opisujące zachowanie narzucone pewne ograniczające warunki. maklerów musiały zostać W pracy weryfikowano wyniki analityczne drogą symulacji komputerowej. Ponadto pokazano obliczeniowo istnienie cykli granicznych przy znacznie słabszych. 82 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Michał KAPAŁKA Wojskowa Akademia Techniczna, 00-908 Warszawa, ul. Kaliskiego 2 E-mail: [email protected] Symulacja zachowania tłumu w dynamicznym otoczeniu 1 Wprowadzenie Człowiek już od początku swojego istnienia dążył do tego, aby żyć w grupie. Jednym z powodów tego zjawiska była chęć poprawy swojego bezpieczeństwa. W dzisiejszych czasach jest podobnie, jednak tendencja tworzenia coraz większych grup spowodowała, że dzisiejsze „tłumy”, będące konsekwencją życia w skupiskach, stały się zagrożeniem dla ludzi. Każdego roku dochodzi do nieprzewidzianych i niekontrolowanych zjawisk przemieszczania się tłumu, w których odnosi obrażenia, a nawet traci życie duża liczba osób. Już w latach 50–tych zauważono ten problem i zaczęto szukać nie tylko technicznych, ale i naukowych metod jego rozwiązania. Modelowanie zachowania, a nastepnie symulacja zjawisk zachodzących w trakcie przemieszczania się tłumu, stały się narzędziem, które zaczęto wykorzystywać w wielu innych dziedzinach związanych z bezpieczeństwem ludzi w tłumie. W niniejszej pracy zostanie przedstawiony autorski model i symulator tłumu oraz jego zastosowanie jako narzędzia do badania bezpieczeństwa ludzi na wybranym terenie aglomeracji. W przyjętym rozwiązaniu założono, że głównym celem jest odwzorowanie rzeczywistego zachowania ludzi w sytuacjach dynamicznie zmieniającego się zagęszczenia w otoczeniu. Do takich sytuacji można zaliczyć większość zjawisk związanych z przemieszczaniem się ludzi w aglomeracji: centra handlowe, stacje metra, budynki użyteczności publicznej i ich otoczenie, imprezy masowe itp. Możliwość badania zachowania tłumu w takich sytuacjach może dać wiele odpowiedzi związanych z bezpieczeństwem ludzi będących w tłumie. Ze względu na złożoność i interdyscyplinarność zagadnienia jakim jest zachowanie tłumu powstało wiele podejść przy tworzeniu modeli i symulatorów, wśród których trudno wskazać rozwiązania sztandarowe. Główne różnice w tych podejściach dotyczą sposobu: reprezentacji przestrzeni (ciągła - nieciągła), reprezentacji jednostki (modele mikro i makroskopowe), odwzorowania zachowania jednostki (brak zachowań, prawa fizyki, systemy regułowe, sztuczna inteligencja) i symulacji (programowanie matematyczne, automaty komórkowe, systemy kolejkowe, systemy agentowe). 2 Model formalny W przyjętym rozwiązaniu przestrzeń odwzorowana jest na dwóch poziomach. Na poziomie decyzyjnym jest ona przedstawiona w postaci grafu w którym: każdy wierzchołek reprezentuje logiczną „podprzestrzeń” (np.: biuro, korytarz, schody, ulica, sklep, itp.), każda gałąź odwzorowuje możliwość przejścia pomiędzy wierzchołkami. Na poziomie działania przestrzeń przedstawiona jest w postaci sieci połączonych między sobą kwadratowych komórek, po których mogą się przemieszczać jednostki (w jednej komórce może znajdować się maksymalnie jedna osoba). 83 Michał KAPAŁKA Model przestrzeni Na poziomie działania przestrzeń o wymiarach (liczba komórek) zdefiniowana jest w postaci: (1) Gdzie: – zbiór liczb naturalnych, – identyfikator komórki: – sieć (zbiór) komórek: (współrzędne na płaszczyźnie), (poziom), (2) – zbiór możliwych kierunków przemieszczania się jednostki, (3) – funkcja określająca otoczenie komórki (4) określa dodatkową zależność, którą jest możliwość bezpośredniego przejścia z komórki do komórki , – funkcja określająca zbiór zawierający komórkę w kierunku w odległości (l. komórek) z komórki (5) - zbiór wszystkich tras w sieci komórek, (6) (7) – funkcja określająca zbiór tras między dwiema różnymi komórkami, (8) – zbiór możliwych stanów komórek, gdzie 3 podstawowe stany to: 0 – wolna, 1– zajęta przez jednostkę, 2 – zajęta przez ruchomy obiekt, – funkcja określająca stan komórki 84 Symulacja zachowania tłumu w dynamicznym otoczeniu Rys. 1 Przestrzenie interpersonalne (a,b,c), model komórkowy otoczenia (d) Fig. 1 Interpersonal spaces (a,b,c), fine network model(d) Przestrzeń na poziomie decyzyjnym przedstawiona jest w postaci: (9) gdzie: - graf Berge’a bez pętli, - zbiór wierzchołków, -zbiór łuków, - funkcja określająca sąsiedztwo dla wierzchołka n, (10) -zbiór wszystkich dróg w grafie G, (11) - funkcja określająca zbiór dróg z wierzchołka x do innego wierzchołka y, (12) Na podstawie zależności (1-14) autorski hybrydowy model otoczenia przedstawiono w postaci: (13) gdzie: - funkcja określająca zbiór komórek należących do wierzchołka, spełniająca zależności: (14) (15) (16) Model tłumu Definiując model tłumu autor przyjął następujące założenia: heterogeniczność jednostek, w pewnych sytuacjach sposób zachowania wszystkich jednostek jest 85 Michał KAPAŁKA podobny, zachowanie jednostki zależy od sytuacji (np.: zagęszczenie czy stres). Jako rozwiązanie autorzy proponują system agentowy, w którym modelem jednostki tłumu jest autonomiczny agent posiadający własne: cechy, stan i sposób zachowania. Model tłumu (agentów) można przedstawić jako: (17) Gdzie: – zbiór jednostek, – zbiór możliwych cech agenta, – zbiór możliwych – zbiór możliwych celów agenta, – zbiór możliwych reguł stanów agenta, zachowania agenta, – wektor cech agenta, – wektor określający stan agenta, – lista celów do osiągnięcia przez agenta, – zbiór reguł definiujący indywidualne zachowanie agenta, - zbiór reguł definiujący aktualne zachowanie agenta. W prezentowanym modelu tłumu zagęszczenie i stres w jakim znajduje się jednostka wpływa na jej sposób przemieszczania i zachowania. Jako podstawę przyjęto teorię proksemiki, wprowadzoną w latach 50-tych przez Edwarda Halla, w której odległość w jakiej znajdują się jednostki od siebie wpływa na relacje (oddziaływanie) między nimi. W modelu przyjęto własną interpretację teorii proksemiki poprzez zdefiniowanie modelu oddziaływań między jednostkami jako: (18) Gdzie: - zbiór stref oddziaływań, - zbiór poziomów zagęszczeń, - zbiór poziomów stresu (w wersji podstawowej zdefiniowano 3 poziomy stresu związane z sytuacjami: normalnymi, pośpiechu, zagrożenia życia), znajdującej się w komórce - zbiór stref oddziaływań dla jednostki zorientowanej w kierunku , (19) -zbiór komórek należących do strefy oddziaływania i, dla jednostki znajdującej się w komórce zorientowanej w kierunku , - zbiór stref oddziaływań uwzględnianych na poziomie zagęszczenia przy poziomie stresu , - zbiór reguł zachowania jednostki względem jednostek znajdujących się w strefie oddziaływania i. W wersji podstawowej zdefiniowane zostały 3 strefy: (20) Gdzie: – strefa fizyczna (komórka w której jest jednostka), strefa ruchu, – strefa swobodnego ruchu. 86 – Symulacja zachowania tłumu w dynamicznym otoczeniu Zachowanie jednostki W prezentowanym rozwiązaniu zachowanie jednostek w tłumie odwzorowano przy wykorzystaniu systemu regułowego (ekspertowego) i założeniach: każdy agent wykorzystuje zbiór reguł w celu podejmowania decyzji co robić dalej i wykonywania odpowiednich działań, zbiór reguł zmienia się w zależności od zagęszczenia i poziomu stresu, każda z reguł powinna mieć określony priorytet, reguły dla „mniejszych” stref oddziaływania mają wyższy priorytet. Model zachowań można przedstawić jako: (21) Gdzie: – zbiór reguł zachowania dla wszystkich agentów, decyzji agenta, – zbiór możliwych działań agenta, funkcja określająca aktualny zbiór reguł zachowania agenta, – zbiór możliwych – – funkcja określająca decyzję podejmowaną przez agenta, – funkcja określająca cele do realizacji przez agenta, – funkcja określająca działanie agenta. Podstawowe fazy składające się na zachowanie agenta przedstawiono na diagramie: Rys. 2 Diagram zachowania agenta Fig. 2 Agent behavior diagram Proces określania zachowania jednostki podzielono na dwie części. W pierwszej jednostka (agent) analizuje stan otoczenia i określa cel jaki chce osiągnąć. W drugiej określane jest rzeczywiste, „widoczne” działanie jednostki. Główne działania jednostek to: przemieszczanie się, oczekiwanie, interakcja z obiektem, interakcja z jednostką (zdobywanie informacji, formowanie grupy, itp.). Przemieszczanie się tłumu Do wyznaczania najlepszej trasy na poziomie decyzyjnym został wykorzystany zmodyfikowany algorytm wyznaczania najkrótszej drogi w grafie. Jednostka, w zależności od znajomości otoczenia i swoich cech z określonym prawdopodobieństwem, wybiera sposób wyznaczenia najlepszej trasy. W procesie decyzyjnym każda jednostka wierzchołek znajdująca się w wierzchołku i mająca jako cel wybiera trasę przemieszczania (kolejne wierzchołki) zgodnie z funkcją: 87 Michał KAPAŁKA (22) gdzie: funkcja określająca „najlepszą” trasę przemieszczania się jednostki (dla uproszczenia przedstawiono tylko 3 możliwe -najlepsza trasa dla przypadku , przypadki określające sposób wyboru trasy), w którym jednostka na podstawie znajomości otoczenia i zagęszczenia wybiera sama trasę, - funkcja określająca koszt przejścia trasy (uwzględnienie dla każdego wierzchołka kary za: zatłoczenie, dużą liczbę wierzchołków sąsiadujących, znajomość przez jednostkę, zagrożenie i odległość), – najlepsza trasa w przypadku , w którym jednostka porusza się za tłumem nie znając otoczenia, najlepsza trasa w przypadku , w którym jednostka porusza się po znanej, odgórnie ustalonej trasie (np.: jedyna dostępna trasa). W fazie działania, gdy jednostka określiła jakie wierzchołki należ y pokonać, aby dostać się do celu, przemieszczanie odbywa się pomiędzy przyległymi, niezajętymi przez inne jednostki komórkami. Sposób wyznaczania trajektorii ruchu (kolejnych komórek) oparty jest w wersji podstawowej o zmodyfikowaną metodę pól potencjałów z normą euklidesową. Algorytm wyznaczania potencjałów przedstawiono w tabeli: Tab. 1 Metoda pól potencjałów Tab. 1 Potential fields method : Dla każdego wierzchołka Dla każdego wierzchołka : , Dopóki 88 Symulacja zachowania tłumu w dynamicznym otoczeniu gdzie: - potencjał komórki w kierunku wierzchołka , , (23) - funkcja określająca odległość między komórkami i , funkcja wygładzająca, określająca wpływ odległości od wierzchołka i liczby komórek sąsiadujących na atrakcyjność komórki. Oprócz przemieszczania się na kolejne niezajęte komórki o niższym potencjale, każda jednostka poruszając się uwzględnia: aktualny stan (zagęszczenie i poziom stresu) i odpowiadającą mu przestrzeń interpersonalną, którą chce zachować niezajętą. W aktualnej wersji modelu uwzględniono również algorytm prognozowania zajętości komórek, który pozwala jednostce „przewidzieć” i uniknąć możliwej kolizji z obiektem ruchomym (mechanizm ten pozwala odwzorować tak zwane „zjawisko tunelowania” w ruchu wielokierunkowym pieszych). Rys. 3 Model otoczenia na poziomie decyzyjnym (A), metoda pól potencjałów (B), metoda prognozowania położenia (C) Fig. 3 Coarse network model (A), potential fields method (B), position prediction method(C) 3 Eksperymenty Eksperymenty symulacyjne zostały przeprowadzone przy wykorzystaniu autorskiego oprogramowania, które zostało skonstruowane na bazie opisanego w poprzednim rozdziale modelu. Jako obiekt zainteresowań wybrano scenariusze: ewakuacji ludzi z budynku z windami oraz ewakuacji na stacji metra. W obu przypadkach wykorzystano ten sam rozkład cech jednostek w badanym tłumie. Podstawowa charakterystyka tłumu została przedstawiona w tabeli: 89 Michał KAPAŁKA Tab. 2 Główne cechy tłumu Tab. 2 Main crowd attributes Cecha Prędkość maksymalna Prędkość preferowana Czas reakcji Średnia 2.0 m/s Cecha Rozmiar tłumu Wartość 100 – 3000 1.1 m/s Znajomość otoczenia 20%-90% 8.0 s 70%/20%/5%/+ Czas interakcji 0.5 s Proporcja rozmiaru grup 1/2/3/+ Przestrzeń interpersonalna 1.0 - 1.5 m W eksperymencie związanym z ewakuacją budynku, w którym są windy, przyjęto jako cel zbadanie wpływu obecności i dostępności dodatkowych środków transportu na przebieg ewakuacji. Głównym elementem, który został zbadany to wpływ liczby osób chcących skorzystać z wind oraz awaryjnośc wind na przebieg ewakuacji. W scenariuszu związanym z wystąpieniem zagrożenia na stacji metra przyjęto jako cel zbadanie możliwości bezpiecznego opuszczenia obiektu na wypadek sytuacji kryzysowej. W badanym scenariuszu w pierwszej fazie przeprowadzona jest symulacja normalnego ruchu na stacji metra i w dowolnym momencie poprzez interakcje uż ytkownika uruchomienie „alarmu” informującego o sytuacji kryzysowej przy jednym z wyjść ze stacji. W efekcie pasażerowie metra muszą opuścić stację wykorzystując tylko jedno wyjście. Symulacje zostały przeprowadzone dla różnych wybranych intensywności ruchu na stacji metra i różnej liczby osób w wagonach. Ciekawym eksperymentem jest symulacja opuszczania metra uwzględniająca sterowanie ruchem poprzez zwalnianie (otwieranie) wagonów z pasażerami w określonych chwilach. Rys. 4 Plan eksperymentu: zagrożenie na stacji metra Fig. 4 Experiment plan: danger on metrostation 90 Symulacja zachowania tłumu w dynamicznym otoczeniu 4 Wyniki Na poniższych wykresach zamieszczone zostały wyniki eksperymentów dla wybranych charakterystyk: Rys. 5 Wykres 1: ewakuacja budynku Fig. 5 Plot 1: building evacuation 5 Podsumowanie W pracy przedstawiono model pozwalający na badanie zjawisk przemieszczania się tłumu w dynamicznie zmieniającym się otoczeniu. Zaprezentowane autorskie rozwiązanie w postaci hybrydowego modelu otoczenia pozwala na szybkie przejście między poziomami decyzyjnymi i działania, a tym samym pełniejszą symulację zjawisk jakie mogą zachodzić w prawdziwym tłumie. Uwzględnienie zagadnienia proksemiki pozwala na dokładniejsze odwzorowanie zachowania tłumu o mniejszych zagęszczeniach i rozmiarach a mechanizm zredukowania stref interpersonalnych do minimum w duż ym zagęszczeniu nie wpływa negatywnie na symulację duż ych tłumów. Przedstawione eksperymenty i wyniki pozwalają stwierdzić, że model i symulator mogą być doskonałym narzędziem do badania przystosowania obiektów aglomeracji do przemieszczania się duż ych grup ludzi oraz analizy zachowania tłumu w sytuacjach kryzysowych. Literatura 1. 2. 3. 4. J.J. Fruin.: Pedestrain Planning and Design, Elevator World Inc, Alabama, 1987 G.K. Still, Crowd Dynamics, PhD. Thesis, University of Warwick, UK, 2000. M. Schreckenberg, A Cellular Automaton Model for Crowd Movement and Egress Simulation, PhD. Thesis, University Duisburg-Essen, 2003. A. Najgebauer, R. Antkiewicz, J. Rulka, Z. Tarapata, M. Kapałka.: Zagrożenia dla porządku i bezpieczeństwa publicznego. Modele zagrożeń aglomeracji miejskiej wraz z systemem zarządzania kryzysowego na przykładzie miasta stołecznego Warszawy, pod redakcją: Andrzeja Najgebauera Warszawa, 2009, str. 563-584 ISBN 978-83-61486-22-0 91 Michał KAPAŁKA 5. 6. M. Kapałka, Modelowanie i symulacja przemieszczania się tłumów, master thesis, WAT, Warsaw, 2006. M. Kapałka.: The fine-coarse network model for simulating crowd behavior. Biuletyn Instytutu Systemów Informatycznych, Nr 5, 31-36 (2010). Streszczenie W pracy został opisany autorski model i symulator tłumu pozwalający badać zachowanie tłumu w dynamicznym otoczeniu. Praca została podzielona na dwie części. W pierwszej części przedstawiono model matematyczny: otoczenia, jednostki i tłumu oraz podstawowe algorytmy symulacyjne. W drugiej części przedstawione zostały wyniki eksperymentów dla scenariuszy: ewakuacji budynku z windami oraz zagrożenia na stacji metra. Simulation of crowd behavior in dynamic environment Summary This work presents a novel approach to the crowd behavior modeling and simulation in dynamic environment. In this paper we introduce in first part mathematical model of: environment, pedestrian, crowd and main simulation alghoritms. In second part we presents experiments conducted with created simulator: evacuation building with elevators and danger in metro station. 92 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Wojciech KOZŁOWSKI Politechnika Opolska, Katedra Dróg i Mostów ul. Ozimska 75A, 45 – 368 Opole E-mail: [email protected] Andrzej SUROWIECKI Uniwersytet Przyrodniczy we Wrocławiu, Instytut Budownictwa, pl. Grunwaldzki 24, 50-363 Wrocław E-mail: [email protected] Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny 1 Wprowadzenie Gabionowa ściana oporowa składa się z koszy siatkowych wypełnionych kruszywem (najczęściej tłuczeń kamienny, otoczaki, kamień polny itp.) odpowiednio względem siebie rozmieszczonych (niekiedy ze sobą zespolonych) i stanowić może w niektórych przypadkach trwałą obudowę niestabilnej skarpy nasypu [1, 2, 3, 4, 8, 9, 10]. Kosze siatkowe (gabiony) które są szczególną odmianą kaszyc, charakteryzują się m. in. podatnością, przepuszczalnością, odpornością na mechaniczne zniszczenie, a więc zaletami o niewątpliwym znaczeniu dla budownictwa komunikacyjnego. Zabezpieczenie przed osuwiskami skarp nasypów komunikacyjnych i klifów morskich gabionami stało się popularne w Polsce na początku lat 90. ubiegłego wieku, między innymi wskutek wdrożenia innowacyjnej technologii opracowanej przez włoską firmę MACCAFERRI [2, 3, 5, 7]. Przedstawiono dwa modele symulacyjne funkcjonowania elementu gabionowego w zakresie trójwymiarowego stanu odkształcenia: fizyczny, wykonany w skali laboratoryjnej oraz numeryczny, bazujący na procedurach popularnego programu Robot MILLENIUM. Rezultatem badań doświadczalnych, przeprowadzonych na modelu fizycznym jest oszacowanie cech wytrzymałościowych gabionu w funkcji parametrów zmiennych, dotyczących kruszywa wypełniającego kosz i siatkowej powłoki kosza. Podano propozycję numerycznego modelowania stanu odkształcenia elementu gabionowego. 2 Fizyczne modele symulacyjne i stanowisko badawcze Modele fizyczne o wymiarach w planie 0,52 m x 0,52 m i wysokości H = 0,42 m sporządzono z koszy skonstruowanych z oryginalnej siatki (drut stalowy typu C 100G o średnicy 2,0 mm) o sześciobocznych oczkach 50 x 80 mm [2, 5, 7, 9] i wypełniono grysem bazaltowym o wymiarze ziaren 8/16 mm (rys. 1). Ściany kosza od wewnątrz otoczono powłoką z folii PCV w celu zapobieżenia przemieszczaniu się ziaren kruszywa na zewnątrz. Analiza obejmuje modele: wzorcowy, czyli kruszywo bez kosza siatkowego (w); gabion-kruszywo w koszu z siatką pojedynczą (k); gabion-kruszywo w koszu z siatką podwójną (2 k); wzorcowy-kruszywo z poziomą wkładką zbrojenia (tzw. przeponą) 93 Wojciech KOZŁOWSKI, Andrzej SUROWIECKI w postaci siatki stalowej o oczkach 12 mm x 12 mm, zlokalizowaną na poziomie 0,5 H = 0,21 m (w,p); gabion-kruszywo w koszu z siatką pojedynczą i przeponą zlokalizowaną na poziomie 0,5 H = 0,21 m (k,p) oraz gabion-kruszywo w koszu z podwójnej siatki i przeponą zlokalizowaną na poziomie 0,5 H = 0,21 m (2 k, p). Stanowiskiem badawczym był stalowy, prostopadłościenny pojemnik wymiarach w widoku z góry 0,54 m x 0,54 m i wysokości H = 0,42 m (rys. 2) [5, 6, 7, 8, 9, 10]. Konstrukcja ścian odwzorowuje odpór stref ośrodka otaczającego model gabionu, natomiast dno stanowi modelowane jednoparametrowe podłoże. Specjalne oprzyrządowanie powierzchni ścian i dna umożliwia kontrolowane przemieszczenia poziome i pionowe modelu oraz pomiary liczbowych wartości tych deformacji, które transformowane są na jednostkowe naciski poziome i pionowe, przy zastosowaniu odpowiedniej zależności analitycznej. W ścianach pojemnika wydzielono siedem poziomów pomiarowych o wysokościach: z1 = 0,03 m; z2 = 0,09 m; z3 = 0,15 m; z4 = 0,21 m; z5 = 0,27 m; z6 = 0,33 m; z7 = 0,39 m [5, 6, 7]. Modele obciążano pionowo statycznym naciskiem w sposób centryczny za pośrednictwem poziomo zlokalizowanej stalowej sztywnej płyty kwadratowej o wymiarze boku 0,315 m. Stosowano obciążenie badawcze równomiernie rozłożone w zakresie do 0,20 MPa. Przy obciążeniu tej wysokości stwierdzono w próbkach wzorcowych początek zjawiska nierównomiernego osiadania płyty obciążającej. Przedmiotem badań były odkształcenia poziome i naciski pionowe modeli przekazywane na podłoże. Wartości pionowych nacisków oszacowano na podstawie iloczynu wartości przemieszczeń pionowych rejestrowanych przez czujniki w dnie pojemnika i znanej stałej sprężystości czujników. Czujniki te zainstalowano w dwóch osiach głównych centralnych dna. Badania miały charakter porównawczy – wyniki pomiarów porównywano z wynikami otrzymanymi na próbkach wzorcowych, które stanowiła bryła ośrodka gruntowego nie otoczonego powłoką siatkową. Przyjęto oznaczenia: ∆xśr = 1/nk Σ∆xk - średnie poziome przemieszczenie modelu; nk = 7 – liczba poziomów pomiarowych; px śr = 1/nk Σ pxk - średni poziomy nacisk modeli na ścianę pojemnika; q [MPa] - obciążenie jednostkowe statyczne modelu, realizowane w zakresie 0,0-0,20 MPa. 94 Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny Rys. 1. Model fizyczny kosza gabionowego [5, 7] Fig. 1. Physical model of gabion basket [5, 7] Rys. 2. Widok z góry na wnętrze pojemnika badawczego, w którym umieszczono model fizyczny kosza siatkowego z kruszywem (gabionu) [5, 7] Fig. 2. Top view of the interior of the container research, which indicates a physical model of aggregate mesh basket (gabion) [5, 7] Modele były poddane dwóm fazom badań. Faza pierwsza realizowana była na modelu wykonanym z kruszywa luźno nasypanego. W fazie drugiej kruszywo znajdowało się w stanie wstępnego zagęszczenia, wygenerowanego procesem obciążającym zastosowanym w fazie 1. 3 Rezultaty badań wykonanych na fizycznych modelach symulacyjnych Wyniki badań doświadczalnych sprowadzono do trzech poszukiwanych parametrów: współczynnika poziomego parcia (poziomego nacisku), nośności modeli gabionu i wytrzymałości na ścinanie. Wartość współczynnika parcia bocznego (poziomego nacisku) w stanie granicznym czynnym obliczono według wzoru [5, 7]: Ka = pxśr (pz)-1 = pxśr (qmax)-1 (1) gdzie: pz jest naprężeniem pionowym od obciążenia, które przyjęto jako qmax = 0,2 MPa. 95 Wojciech KOZŁOWSKI, Andrzej SUROWIECKI Rozróżniono dwie wartości współczynnika parcia: Ka1 – w odniesieniu do fazy 1 badań, Ka2 - w odniesieniu do fazy 2 badań. Mniejsze wartości ∆xśr , px,śr oraz Ka dla modeli przy założonym niezmiennym obciążeniu wskazują na przyrost nośności. Najbardziej korzystne efekty uzyskano w modelu gabionu, wzmocnionym poziomą przeponą (k,p). Jako miernik przyrostu nośności modeli gabionu w stosunku do modelu wzorcowego (bez przepony i bez kosza siatkowego) potraktowano możliwość zwiększenia obciążenia pionowego q i dopuszczenie odpowiednio większych wartości naprężenia pionowego pz = f(q), przy ustalonej wartości nacisku poziomego px. Wielkość wprowadzonego w badaniach pionowego obciążenia zewnętrznego gwarantuje wystąpienie równomiernych naprężeń na wysokości modelu i wobec powyższego założono pz = qmax. Efekt zwiększenia nośności jest rozpatrywany w zakresie fazy 1 badań. 1) Dla modelu (w), obciążonego maksymalnym naciskiem qmax = 0,2 MPa otrzymano z badań doświadczalnych średnie parcie boczne pxśr = 0,029 MPa. Wtedy doświadczalny współczynnik parcia otrzymuje wartość: K = pxśr (pz)-1 = 0,029 / 0,2 = 0,145. Naprężenie poziome pxśr = 0,029 przyjęto jako bazę odniesienia, w celu skonstruowania zależności, która wykaże zwiększenie zasięgu możliwości zastosowania obciążenia zewnętrznego w modelach z przeponą i koszem w odniesieniu do modelu wzorcowego. 2) Dla modelu (w,p) otrzymano K = 0,075 oraz maksymalne naprężenie pionowe: pz* = pxśr (K*)-1 = 0,029 / 0,075 = 0,386 MPa > pz = 0,2 MPa. (2) Efekt zwiększenia nośności ∆pz spowodowany przeponą zlokalizowaną w poziomie z4 = 0,21 m wyrażono różnicą między maksymalnym obciążeniem modelu z przeponą a maksymalnym obciążeniem modelu bez przepony: ∆pz = pz* - pz = 0,386 – 0,2 = 0,186 MPa, albo: δpz = pz* (pz)-1 = 0,386 (0,2)-1 = 1,93 > 1,0. 3) Dla modelu (k,p) otrzymano K = 0,06 oraz: pz* = 0,029 (0,06)-1 = 0,483 MPa > pz = 0,2 MPa; ∆pz = 0,483 – 0,2 = 0,283 MPa albo inaczej: δpz = pz* (pz)-1 = 0,483 (0,2)-1 = 2,41 > 1,0. W przypadku szacowania wytrzymałości na ścinanie, model ośrodka gruntowego niespoistego ze wzmocnieniem potraktowano jako ośrodek bez spójności, w którym uległ zwiększeniu kąt tarcia wewnętrznego wskutek wzmocnienia (c = 0, ∆ϕ > 0). W procesie badań otrzymano parcie czynne px o wartości zależnej od szeregu czynników towarzyszących. Jeżeli w przypadku qmax wartości pz i K zostaną potraktowane jako ekstremalne, wtedy po podstawieniu ich do klasycznego równania stanu granicznego można określić efekt zwiększenia kąta ϕ w ośrodku gruntowym wzmocnionym. Warunek stanu granicznego ma postać dla modelu gruntu nie wzmocnionego: pz px / pz = tg2 (450 - 0,5 ϕ) = Kmin oraz przez analogię dla gruntu ze wzmocnieniem: px* / pz tg2 (450 - 0,5 ϕ) = Kmin* < Kmin (3) (4) Istnieje też w tym przypadku zależność: ϕ* > ϕ oraz ∆ϕ = ϕ* - ϕ, gdzie ϕ jest kątem tarcia wewnętrznego badanego ośrodka gruntowego, ∆ϕ - efekt zwiększenia kąta tarcia. 96 Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny Wartości kąta tarcia ϕ i wytrzymałości na ścinanie τf , efekt przepony bezwzględny ∆τf i względny ετ, efekt kosza siatkowego bezwzględny ∆τf, względny ετ oraz łączny efekt kosza i przepony bezwzględny ∆τf i względny ετ, dla wybranych modeli (w), (w,p) oraz (k,p) oszacowano przy użyciu wzorów (3) i (4). Wyniki obliczeń, czyli efekt wzrostu kąta tarcia wewnętrznego w ośrodku wzmocnionym podano w tabeli 1. Tabela 1. Parametry wytrzymałościowe modeli [5, 7] Table 1 Strength parameters of models [5, 7] Model Kąt tarcia ϕ [0] Wytrz. na ścinanie τf [MPa] (w) (w,p) (k.p) 48,3 59,48 62,48 0,224 0,339 0,384 4 Efekt przepony bezwzględny ∆τf [MPa] 0,115 - względny ετ [%] 51,33 - Efekt kosza siatkowego bezwzględny ∆τf [MPa] 0,045 względny ετ [%] 13,27 Łączny efekt przepony i kosza bezwzględny względny ∆τf [MPa] ετ [%] 0,160 71,43 Numeryczne modelowanie elementów gabionowych i ich stanu odkształcenia Podjęto próbę zaprojektowania elementów gabionowych przed i po odkształceniu, poprzez adaptację programu Robot MILLENIUM 15.0 [5, 6, 7]. Jak wiadomo, program ten służy zasadniczo do projektowania, modelowania, oraz wymiarowania różnych typów konstrukcji budowlanych i ich elementów składowych. Do projektowania koszy gabionowych wykorzystano model siatki uprzednio sporządzony w „zakładce” RAMA PŁASKA. Kosze wygenerowano używając „zakładki” KRATOWNICA PRZESTRZENNA. Efekt podanych procedur ilustrują poniżej przykłady projektowe. - model oczek siatki gabionowej (rys. 3); Rys. 3. Modele oczek siatki gabionowej [5, 6, 7] Fig. 3. Gabion mesh models [5, 6, 7] - siatka gabionowa z pękniętym drutem (projekt zrealizowany z „zakładce” RAMA PŁASKA) – rys. 4; 97 Wojciech KOZŁOWSKI, Andrzej SUROWIECKI Rys. 4. Model siatki gabionowej z pękniętym drutem [5, 6, 7] Fig. 4. Gabion mesh model with a broken wire [5, 6, 7] - dwuwymiarowy model kosza gabionowego (1,0 x 1,0 m); wymiary oczek siatki: 80 x 100 mm (rys. 5); Rys. 5. Dwuwymiarowy model kosza gabionowego (1,0 x 1,0 m); wymiary siatki: 80 x 100 mm [5, 6, 7] Fig. 5. Two-dimensional model of gabion basket (1.0 x 1.0 m); grid size: 80 x 100 mm [5, 6, 7] - trójwymiarowy projekt kosza gabionowego (1,0 x 1,0 1,0 m) z siatki o wymiarze oczek 80 x 100 mm, przy zastosowaniu w programie modelu siatki z pakietu RAMA PŁASKA (rys. 6); 98 Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny Rys. 6. Trójwymiarowy model kosza gabionowego (1,0 x 1,0 x 1,0 m) z siatki o wymiarze oczek 80 x 100 mm [5, 6, 7] Fig. 6. Tree-dimensional model of gabion basket (1.0 x 1.0 x 1.0 m); grid size: 80 x 100 mm [5, 6, 7] Rysunek 7 ilustruje przykład modelowania trójwymiarowego stanu odkształcenia kosza gabionowego wskutek obciążenia ciężarem własnym. Model kosza o wymiarach 1,0 x 1,0 x 1,0 m zaprojektowano w pakiecie KONSTRUKCJE OBJĘTOŚCIOWEBRYŁY, sposobem uproszczonym, stosując siatkę czworokątną o oczkach 100 x 100 mm zamiast typowej dla gabionów siatki sześciokątnej. Wprowadzenie stosowanego w praktyce sześciokątnego kształtu oczek wymaga użycia komputera o dużej mocy obliczeniowej. Rys. 7. Model kosza siatkowego (gabionu) po odkształceniu spowodowanym ciężarem własnym [5, 6, 7] Fig. 7. Mesh basket model (gabion) after deformation caused by its own weight [5, 6, 7] 5 Podsumowanie Wyniki badań doświadczalnych dotyczących odkształceń poziomych i pionowych fizycznego wielkowymiarowego modelu gabionu wykazały pozytywne aspekty pracy tego typu elementów tworzących ściany oporowe, poddanych działaniu pionowego 99 Wojciech KOZŁOWSKI, Andrzej SUROWIECKI obciążenia o charakterze statycznym. Kosz siatkowy wypełniony materiałem kamiennym (gabion) obciążony w warunkach badań laboratoryjnych podanych w referacie, wykazuje mniejsze o około 30 % odkształcenia poziome w odniesieniu do wzorca, czyli próbki ośrodka ziarnistego bez powłoki siatkowej. Generalnie stwierdzono wpływ otoczenia bryły kruszywa koszem siatkowym na ograniczenie przemieszczeń poziomych i pionowych, co jest równoznaczne ze zwiększeniem nośności. Wpływ ten jest zależny od parametrów wytrzymałościowych siatki kosza, wymiaru oczek siatki, jakości splotu oraz cech kruszywa (m.in. stopień zagęszczenia, wymiar i kształt ziaren). Z powyższych rozważań wynika kapitalne znaczenie dodatkowo zainstalowanej poziomej przepony siatkowej (wkładki wzmacniającej), jako elementu w sposób zasadniczy redukującego przemieszczenia i generującego poprawę cech wytrzymałościowych modeli. Charakter pracy przepony różni się zasadniczo od funkcji kosza siatkowego: przepona podejmuje w płaszczyźnie poziomej siły rozciągające od masy ośrodka ziarnistego na zasadzie zjawiska tarcia wzdłuż prętów siatki oraz oporu poprzecznego przesuwu prętów zlokalizowanych prostopadle do tych sił. Na szczególną uwagę zasługują wysokie wartości cech mechanicznych modeli traktowanych jako ośrodek bez spójności, w którym wskutek wzmocnienia wystąpił efekt zwiększenia kąta tarcia wewnętrznego. W modelach z koszem siatkowym i poziomą przeponą stwierdzono zwiększenie wartości wytrzymałości na ścinanie [%] wyodrębniając: efekt przepony ετ = 51,33 %; efekt kosza siatkowego ετ = 13,27 % oraz łączny efekt kosza siatkowego i przepony ετ = 71,43 %. Podane przykłady wskazują, że system ROBOT MILLENIUM jest w pełni przydatny jako narzędzie do numerycznego konstruowania: • modeli elementów budujących kosze gabionowe (oczka siatki; siatka o oczkach czworokątnych i sześciokątnych); • dwu i trójwymiarowych modeli gabionów, stanowiących pojedynczą sekcję i zespół sekcji; • modeli oporowych ścian pionowych lub nachylonych względem płaszczyzny poziomej, złożonych z gabionów (możliwe jest tworzenie dowolnych kompozycji gabionów), co wykazały rezultaty innych, nie cytowanych w niniejszym referacie badań wykonanych przez autorów. Literatura 1. 2. 3. 4. Clayton C.R.J., Milititsky J., Woods R.J., Earth Pressure and Earth Retaining Structures. Blackie Academic & Professional. An Im Print of Chapman & Hall. London-New York, 1996 Gabiony MACCAFERRI. Officine MACCAFERRI S.P.A. Polibeton Sp.z o.o., ul. Jagiellońska 79, Warszawa 2003 GGU Gabion. Calculation of Gabion Walls. Geotechnical Computation. Civilserve DP for Civil Engineering, Braunschweig, Germany, August 2001 Jarominiak A.: Lekkie konstrukcje oporowe, WKiŁ, Warszawa 2003 100 Model symulacyjny elementu ściany gabionowej stabilizującej nasyp komunikacyjny 5. Kozłowski W.; Analiza zachowania się oporowych ścian gabionowych i ich elementów pod wpływem obciążenia statycznego. Praca dokt., Raport serii PRE nr 3, 2007, Politechnika Wrocławska, Instytut Inżynierii Lądowej, Wrocław, 2007 6. Kozłowski W., Surowiecki A., Numerical simulation of deformations of gabionretaining wall segment. Proc. Int. Scientific Conf. “Riesenie krizovych situacii v specifickom prostredi”. Zilinska Univerzita v Ziline, Zilina 23-24.6.2004, s.573-579 7. Surowiecki A., Balawejder A., Kozłowski W., Badanie możliwości wzmacniania nasypów kolejowych przy zastosowaniu zbrojenia gruntu, lekkich konstrukcji oporowych i maty komórkowej. Raport serii SPR nr 6, Projekt bad. MNiI nr 5 T07E 06024, Politechnika Wrocławska, Wrocław 2006 8. Surowiecki A.: Interaction between reinforced soil components. Studia Geotechnica et Mechanica. Vol. 20, Nr 1-2, 1998, s. 43-61 9. Surowiecki A.: Podstawy projektowania zabezpieczeń podtorza przy uż yciu gabionów. Konf. Nauk.-Techn. Wrocław-Żmigród, Pol. Wrocł., SITK, 29-30.06.2000 r., s. 155-162 10. [10] Surowiecki A., O projektowaniu konstrukcji gabionowych w budownictwie komunikacyjnym. Drogownictwo, SITK, Rok LVI, Nr 3, 2001, s. 81-86. Streszczenie Temat referatu dotyczy ścian oporowych skonstruowanych z koszy siatkowo-kamiennych (tzw. gabionów), stosowanych w budownictwie komunikacyjnym w celu zabezpieczenia skarp budowli ziemnych przed osuwiskami. Przedstawiono fizyczny symulacyjny model pracy pojedynczego gabionu, wykonany w skali laboratoryjnej. Doświadczalnie oszacowano cechy wytrzymałościowe gabionu w funkcji wybranych parametrów zmiennych. Podano propozycję numerycznego modelowania stanu odkształcenia elementu gabionowego. Simulation model of gabion wall element stabilizing communication embankment Summary The subject of the paper refers to gabion retaining walls, as the solution of earthen structures protection of motor roads and railway roads against the slope failures. There were presented the test of estimation of strength characteristics of gabions on the basis of deformations researches of physical gabion models. In particular estimated: the factor of horizontal pressure, the effect of load capacity increase on account of net-basket and the horizontal reinforcing rod and shear strength. 101 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 102 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Tomasz Janusz TELESZEWSKI, Piotr RYNKOWSKI Politechnika Białostocka, WBiIŚ, ul.Wiejska 45E, 15-351 Białystok E-mail: [email protected], [email protected] Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody użytkowej metodą brzegowych równań całkowych 1 Wstęp Sprawność transportu ciepłej wody użytkowej w instalacjach ogrzewczych zależy w dużej mierze od prawidłowej izolacji termicznej przewodów, w tym również od racjonalnego prowadzenia przewodów przechodzących przez przegrody budowlane. W opracowaniu przedstawiono metodę wyznaczania pól temperatury i strumienia ciepła przewodów instalacji ciepłej wody użytkowej i przewodów cyrkulacyjnych prowadzonych przez ściany i stropy budynków. Zagadnienie wymiany ciepła na styku przewodów i struktur budowlanych, ograniczone do dwuwymiarowego przewodnictwa cieplnego w warunkach ustalonych rozwiązano metodą brzegowych równań całkowych. Podstawowym walorem metody brzegowych równań całkowych nazywanej również w nawiązaniu do metod siatkowych metodą elementów brzegowych (MEB), jest to, że rozwiązania zagadnienia opisanego równaniem różniczkowym w pewnym obszarze poszukuje się na brzegu tego obszaru, co w numerycznym rozwiązaniu wymaga konstrukcji siatki punktów jedynie fizycznym brzegu obszaru, a nie w całym rozpatrywanym obszarze, jak to ma miejsce w przypadku metod siatkowych: metody różnic skończonych (MRS) i metody elementów skończonych (MES) [1]. Ta istotna właściwość metody, w szczególności w jej najbardziej prostej aplikacji polegającej na podziale brzegu na elementy o stałej wartości poszukiwanej funkcji w obrębie każdego elementu, pozwala na konstruowanie prostych i wydajnych algorytmów obliczeniowych do symulacji złożonych zagadnień przepływowych, cieplnych i innych w obszarach o złożonej geometrii bez potrzeby generowania złożonych siatek do rozwiązywania tych zagadnień [2]. 2 Brzegowe równanie całkowe opisujące ustalone pole temperatury w zagadnieniach dwuwymiarowych Pole temperatury w ustalonym przepływie ciepła, w którym dominującym mechanizmem jest przewodzenie ciepła jest opisane równaniem Laplace’a względem temperatury T [3]: ∇ 2T = 0 (1) Gęstość strumienia ciepła w jest równa: q = − λ ∇T (2) gdzie: λ jest współczynnikiem przewodzenia ciepła. 103 Tomasz Janusz TELESZEWSKI, Piotr RYNKOWSKI Zagadnienie brzegowe dla równania różniczkowego (3) formułuje się w postaci złożonego warunku brzegowego Dirichleta i Neumanna zakładającego znane wartości temperatury T% (q) na części brzegu LT (q ∈ LT) i znane wartości strumienia ciepła q% (q) na części brzegu Lq (q ∈ Lq) (rys. 1). Y n nq x LT ny q rpq dL q% (q) (Λ ) T% (q) L = LT ∪ Lq p Lq X Rys. 1. Szkic do analizy zagadnienia brzegowego w obszarze płaskim Fig. 1. Sketch to consideration of boundary conditions Rozwiązaniem równania Laplace’a (1) jest równanie całkowe [2]: − χ (p)T (p) + ∫ =− ∫ T (q) E (p, q)dL q (q) K (p, q)dLq + ( Lq ) ∫ = T ( LT ) q% (q) K (p, q) dLT − ( LT ) ∫ T% (q) E (p, q)dL q , (3) ( Lq ) p, q ∈ L gdzie dla brzegu gładkiego χ (p) =1/2 oraz: 1 ln ; rpq = ( xp − xq ) 2 + ( yp − yq ) 2 , rpq 2πλ ( x − xq )nx + ( yp − yq )n y 1 p E (p, q) = . 2π rpq2 K (p, q) = 1 (3a) (3b) Po wyznaczeniu T(p) oraz q(p) temperaturę w dowolnym punkcie (p ∈ Λ) rozpatrywanego obszaru (Λ) wyznacza się ze związku całkowego: T (p) = ∫ T (q) E (p, q) dL + ∫ q(q) K (p, q) dL ( L) ( L) (4) (q) ∈ ( L) , (p) ∈ (Λ) Wobec zależności (2) strumienie ciepła w kierunku x i y w przyjętym układzie współrzędnych w punktach (p) rozpatrywanego pola temperatury w obszarze (Λ) ograniczonym brzegiem (L) otrzymuje się różniczkując wyrażenia podcałkowe w wyrażeniu (4) odpowiednio względem x i y: 104 Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody uŜytkowej metodą brzegowych równań całkowych q x (p ) = − λ ∂T (p) ∂E (p, q) ∂K (p, q) = − ∫ T (q) dL − ∫ q(q) dL x ∂xp ∂ ∂xp p ( L) ( L) ∂T (p) ∂E (p, q) ∂K (p, q) q y (p) = −λ = − ∫ T (q ) dL − ∫ q (q) dL ∂yp ∂ y ∂yp p ( L) ( L) (5) gdzie: 2 2 ∂E (p, q) λ ( yq − yp ) − ( xq − xp ) nx − 2( xq − xp )( yq − yp )n y = 4 ∂xp 2π rpq ∂K (p, q ) 1 yq − yp = 2 2π ∂yp rpq 2 2 λ ( xq − xp ) − ( yq − yp ) n y − 2( xq − xp )( yq − yp )nx ∂E (p, q) = 4 ∂xp 2π rpq ∂K (p, q) 1 xq − xp = 2 2π rpq ∂xp ( ( (5a) ) (5b) ) Moduł gęstość strumienia ciepła jest równy [4]: q (p) = (q x (p )) 2 + (q y (p))2 (6) Adiabaty dane są równaniem linii przepływu ciepła [4]: d Ξ = q x (p) dy − q y (p)dx 3 (7) Walidacja wyznaczania funkcji prądu metodą elementów brzegowych w zagadnieniach płaskich Jako zagadnienie testowe przyjęto jednokierunkowe przenikanie ciepła w ścianie jednowarstwowej o grubości 0,38 m, zbudowanej z bloczków keramzytobetonowych o współczynniku przewodzenia ciepła 0,42 W/mK. Warunki brzegowe zagadnienia testowego zostały przedstawione na rysunku 2. 105 Tomasz Janusz TELESZEWSKI, Piotr RYNKOWSKI q = 0 W / m2 Y X Tz = −16 Co Tw = +20 Co λ = 0.42 W / ( mK ) L = 0.38 m Rys. 2. Warunki brzegowe w jednowarstwowej przegrodzie budowlanej Fig. 2. Sketch to boundary in a monostratal wall Pole temperatury w przekroju ściany wyznaczono ze wzoru analitycznego: TT ( x ) = Tw + (Tz − Tw ) x L (8) gdzie: Tw, Tz są temperaturą na powierzchni ściany, L oznacza grubość ściany. Gęstość strumienia ciepła została wyznaczona ze wzoru: qT ( x ) = −λ dT dx (9) Obliczenia wykonano dla brzegu składającego się z 100 oraz 1000 elementów. Błąd rozwiązania metody elementów brzegowych dla temperatury i strumienia ciepła wyznaczono z zależności: δ TMEB = TT − TMEB q −q *100% , δ qMEB = T MEB *100% , TT qT (10) gdzie: TMEB i qMEB oznacza temperaturę i strumień ciepła wyznaczona metodą brzegowych równań całkowych, natomiast TT i qT oznacza wielości wyznaczone ze wzoru (8) i (9). Tabelaryczne zestawienie porównania rozwiązania numerycznego i teoretycznego w przekroju Y=0,30 m znajduje się tabeli 1 dla temperatury oraz w tabeli 2 dla gęstości strumienia ciepła. 106 Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody uŜytkowej metodą brzegowych równań całkowych Tab. 1. Pole temperatury - błąd rozwiązania BEM Tab. 1. The temperature – error analysis applied in BEM Współrzędne węzłów Rozwiązanie teoretyczne Rozwiązanie Błąd metody num. MEB MEB Roz. num. MEB Błąd metody MEB 100 el. 100 el. 1000 el. 1000 el. TMEB XM YM TT TMEB TMEB TMEB [m] [m] [oC] [oC] [%] [oC] 5,0E-03 5,0E-02 1,0E-01 1,5E-01 2,0E-01 2,5E-01 3,0E-01 3,5E-01 [%] 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 1,9526E+01 1,5263E+01 1,0526E+01 5,7895E+00 1,0526E+00 -3,6842E+00 -8,4211E+00 -1,3158E+01 1,9605E+01 1,5323E+01 1,0565E+01 5,8066E+00 1,0486E+00 -3,7094E+00 -8,4674E+00 -1,3225E+01 4,0270E-01 3,8922E-01 3,6368E-01 2,9599E-01 3,8282E-01 6,8422E-01 5,5092E-01 5,1368E-01 1,9534E+01 1,5269E+01 1,0530E+01 5,7912E+00 1,0522E+00 -3,6867E+00 -8,4257E+00 -1,3165E+01 3,9900E-02 3,8616E-02 3,5986E-02 2,9096E-02 3,9796E-02 6,8471E-02 5,4953E-02 5,1178E-02 3,8E-01 3,0E-01 -1,5526E+01 -1,5605E+01 5,0477E-01 -1,5534E+01 5,0166E-02 W przypadku brzegu składającego się ze 100 elementów błąd metody brzegowych równań całkowych oscyluje wokół wartości 0,5 % dla wybranych punktów, natomiast w przypadku brzegu podzielonego na 1000 elementów błąd ten jest dziesięciokrotnie mniejszy, co świadczy, że jest to metoda bardzo dokładna. Na rysunku 3 wykreślono pole temperatury wyznaczone metodą elementów brzegowych dla powyższego przykładu. Tab. 2. Gęstość strumienia ciepła - błąd rozwiązania BEM Tab. 2. The thermal flux – error analysis applied in BEM Współrzędne węzłów XM [m] YM qT 2 Rozwiązanie Błąd metody num. MEB MEB Roz. num. MEB Błąd metody MEB 100 el. 100 el. 1000 el. 1000 el. qMEB qMEB qMEB qMEB 2 [%] 2 [W/m ] [W/m ] 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,0E-01 3,9789E+01 3,9789E+01 3,9789E+01 3,9789E+01 3,9789E+01 3,9789E+01 3,9789E+01 3,9789E+01 3,9978E+01 3,9967E+01 3,9967E+01 3,9967E+01 3,9967E+01 3,9967E+01 3,9967E+01 3,9968E+01 4,7279E-01 4,4589E-01 4,4620E-01 4,4665E-01 4,4699E-01 4,4719E-01 4,4726E-01 4,4867E-01 3,9807E+01 3,9807E+01 3,9807E+01 3,9807E+01 3,9807E+01 3,9807E+01 3,9807E+01 3,9807E+01 4,4509E-02 4,4472E-02 4,4434E-02 4,4409E-02 4,4404E-02 4,4421E-02 4,4459E-02 4,4504E-02 3,8E-01 3,0E-01 3,9789E+01 3,9977E+01 4,7105E-01 3,9807E+01 4,4524E-02 5,0E-03 5,0E-02 1,0E-01 1,5E-01 2,0E-01 2,5E-01 3,0E-01 3,5E-01 [m] Rozwiązanie teoretyczne [W/m ] [%] 107 Tomasz Janusz TELESZEWSKI, Piotr RYNKOWSKI Rys. 3. Pole temperatury w jednowarstwowej przegrodzie budowlanej - rozwiązanie numeryczne MEB Fig. 3. The temperature field in a monostratal wall - BEM solution 4 Przykłady obliczeniowe Poniżej przedstawiono przykład obliczeniowy symulacji przenikania ciepła w przegrodzie budowlanej pionowej wykonanej z żelbetu o współczynniku przewodzenia ciepła λIŻ =1,70 W/mK, zlokalizowanej w piwnicy, przez którą przechodzi przewód ciepłej wody użytkowej. W warunku brzegowym przyjęto rzeczywiste temperatury zmierzone miernikiem wyposażonym w czujnik oporowy. Pierwszy przypadek dotyczy przewodu c.w.u., który jest zaizolowany w ścianie otuliny ze spienionego polietylenu o współczynniku przewodzenia ciepła λIZ=0,038 W/mK. Temperatura na powierzchni stalowej rury ocynkowanej o średnicy zewnętrznej 42,4 mm wynosi 52,80 oC, temperatura na powierzchni izolacji przewodu o grubości 13 mm wynosi 29,8 oC, temperatura ściany w odległości 1,5 m od powierzchni izolacji wynosi 8.0 oC. Fotografię przewodu c.w.u. przedstawiono na rysunku 4a. a) b) Rys. 4. Przenikania ciepła przez przegrodę budowlaną przez, którą przechodzi izolowana termicznie instalacja c.w.u.: a) widok ogólny, b) termogram powierzchni ściany Fig.4. Heat transfer from a hot water pipe without thermal insulation through a wall: a) photography, b) thermogram. Rysunek 4b przedstawia termogram wykonany kamerą termowizyjną. 108 Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody uŜytkowej metodą brzegowych równań całkowych Na rysunku 5a wykreślono izotermy wyznaczone metodą brzegowych równań całkowych dla przypadku przewodu c.w.u. izolowanego termicznie od przegrody, natomiast na rysunku 5b wykreślono rozkład gęstości strumienia. a) b) Rys. 5. Przenikanie ciepła przez przegrodę budowlaną przez, którą przechodzi izolowana termicznie instalacja c.w.u.: a) pole temperatury, b) gęstość strumienia ciepła Fig. 5.Heat transfer from a hot water pipe with thermal insulation through a wall: a) temperature field, b) heat flux density Izotermy (rys. 5a) otrzymane z obliczeń są zbieżne z obrazem termogramu (rys. 4b). W drugim przypadku wykonano obliczenia dla wariantu, w którym pominięto izolację cieplną c.w.u. Rysunek 6a przedstawia pole temperatury wyznaczone metodą brzegowych równań całkowych dla nieizolowanego termiczne przewodu, rysunek 6b przedstawia rozkład gęstości strumienia ciepła, na rysunku 6c wykreślono adiabaty. 109 Tomasz Janusz TELESZEWSKI, Piotr RYNKOWSKI b) a) c) Rys. 6. Przenikanie ciepła przez przegrodę budowlanąą przez, którą przechodzi nieizolowana termicznie instalacja c.w.u.: a) pole temperatury b) strumień ciepła, c) adiabaty Fig. 6. Heat transfer from a hot water pipe without thermal insulation through a wal:l a) temperature field, b) heat flux density, c) adiabatic curve Porównanie rezultatów obliczeń MEB (rys.5a-b oraz 6a-b) wskazuje jak ważne jest izolowanie przewodów c.w.u., które przechodzą przez przegrody budowlane. Brak izolacji powoduje znaczące straty ciepła instalacji c.w.u. i tym samym przyczynia się do wzrostu kosztów podgrzania c.w.u. 5 Podsumowanie Przedstawiony w pracy algorytm oparty na metodzie brzegowych równań całkowych jest wydajnym i dokładnym narzędziem służącym do wyznaczania pól temperatur, rozkładów gęstości strumienia ciepła oraz rozkładu adiabat. Znajomość pół temperatur oraz rozkładów gęstości strumienia ciepła może być przydatna przy pracach nad poprawą sprawności transportu ciepłej wody użytkowej. Metoda również może być stosowana do oceny izolacyjności termicznej najczęściej stosowanych otulin Literatura 1. Reddy J.N., Gartling D.K.: The Finite Element Method in Heat Transfer and Fluid Dynamics. CRC Press 2010 2. Brebbia C.A., Telles J.F.C., Wrobel L.C.: Boundary element Techniques. Theory and Applications in Engineering. Springer-Verlag. NY 1984 3. Patankar S.V.: Numerical Heat Transfer and Fluid Flow. Taylor and Francis 1980 110 Modelowanie przepływu ciepła w przegrodach z instalacjami ciepłej wody uŜytkowej metodą brzegowych równań całkowych 4. Teleszewski T.J., Sorko S.A.: Modelowanie przepływu ciepła w przegrodach z instalacjami centralnego ogrzewania metodą brzegowych równań całkowych. Budownictwo i Inżynieria Środowiska Vol.1, nr 3 2010 Streszczenie W artykule omówiono modelowanie przenikania ciepła w przegrodach budowlanych, przez które przechodzą przewody ciepłej wody użytkowej. Algorytm został oparty na metodzie brzegowych równań całkowych. W publikacji przedstawiono praktyczny przykład zastosowania metody, w którym obliczono pole temperatury oraz rozkład gęstości strumienia ciepła dla przewodu c.w.u. izolowanego termicznie oraz dla przewodu bez izolacji termicznej. W pracy wyznaczono błąd metody brzegowych równań całkowych. Do analiz opracowano oprogramowanie w języku Fortran. Computer simulation of heat transfer in walls with hot water installations using Boundary Element Method Summary The paper presents the numerical simulation of of heat transfer in walls with hot water installations using Boundary Element Method in two dimensional problem. The efficiency and the credibility of proposed algorithm were verified by numerical tests and were compared with thermogram. This algorithm can be used to project increase efficiency a hot water transport in system pipe. A numerical examples are presented. Computer programs are written in Fortran programming languages. Projekt współfinansowany ze środków Unii Europejskiej w ramach Europejskiego Funduszu Społecznego (nr umowy WIEM/POKL/MD/II/2010/6). 111 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 112 Symulacja w Badaniach i Rozwoju Vol. 2, No. 2/2011 Kazimierz WORWA Wojskowa Akademia Techniczna, 00-908 Warszawa, ul. Kaliskiego 2 E-mail: [email protected] Using an optimization methods to selection the best software developer 1 Introduction As software becomes increasingly important in systems that perform complex and critical functions, e.g. military defense, nuclear reactors, so too have the risks and impacts of software-caused failures. There is now general agreement on the need to increase software reliability and quality by eliminating errors created during software development. Industry and academic institutions have responded to this need by improving developmental methods in the technology known as software engineering and by employing systematic checks to detect software errors during and in parallel with the developmental process. A large number of analytical models have been proposed and studied over the last two decades for assessing the quality of a software system. Each model must make some assumptions about the development process and test environment. The environment can change depending on the software application, the lifecycle development process as well as the capabilities of the engineering design team [5]. Therefore, it is important for software users and practitioners to be familiar with all the relevant models in order to make informed decisions about the quality of any software product. Let us define the terms such as software error, fault and failure [1]. An error is a mental mistake made by the programmer or designer. A fault is the manifestation of that error in the code. A software failure is defined as the occurrence of an incorrect output as a result of an input value that is received with respect to the specification. What precisely do we mean by the term failure? It is the departure of the external results of system operation from user needs. So failure is something dynamic. A system has to be operating for a failure to occur. The term failure relates to the behavior of the system. Note that a failure is not the same thing as a bug or, more properly, fault. The very general definition of failure is deliberate. It can include such things as deficiency in performance attributes and excessive response time when desired, although there can be disadvantages in defining failure too generally. A fault in software is the defect in the program that, when executed under particular conditions, causes a failure. There can be different sets of conditions that cause failures. Hence a fault can be the source of more than one failure. A fault is a property of the program rather than a property of its execution or behavior. It is what we are really referring to in general when we use the term defect or bug. Software reliability modelling has become one of the most important aspects in software reliability engineering since first software reliability models appeared. Various methodologies have been adopted to model software reliability behaviour. The most of existing work on software reliability modelling is focused on continuous-time base, which assumes that software reliability behaviour can be measured in terms of time. It may be a 113 Kazimierz WORWA calendar time, a clock time or a CPU execution time [2, 4-8, 10]. Although this assumption is appropriate for a wide scope of software systems, there are many systems, which are essentially different from this assumption. For example, reliability behaviour of a reservation software system should be measured in terms of how many reservations are successful, rather than how long the software operates without any failure. Similarly, reliability behaviour of a bank transaction processing software system should be assessed in terms of how many transactions are successful, etc. Obviously, for these systems, the time base of reliability measurement is essentially discrete rather than continuous. Models that are based on a discrete-time approach are called input-domain or run-domain models (see e.g. [4-8, 10]). They usually express reliability as the probability that an execution of the software is successful. In spite of permanent improvement of software project and implementation methods which are used in a practice of a software development they still can not guarantee of developing a complicated software system entirely free of errors. These errors appeared during useful exploitation of software and they cause to arise some financial losses and other difficulties. In order to minimize of scale such difficulties software users demand from developers such reliable software as possible. Unfortunately, more reliable software is more expensive so there is a practical problem to determine some compromise on both software quality and cost requirements. In practice, determining such a compromise can be easier if there are possibilities to estimate both software reliability level and his development cost by means of appropriate measures. The purpose of this chapter is to propose some formal way of determining software developer by formulating and solving the bicriterial optimization problem will both minimize the value of the number of software tasks which have incorrect realization during some time period and minimize the value of the software development cost. The method of determining the best software developer that is proposed will be illustrated by the simple numerical example. 2 Mathematical model of the software exploitation process We will consider some useful software that services arriving tasks. Each input task involve a sequence of software operations, whereas an operation is a minimum execution unit of software. The concrete sense of an operation is subject to application context. For example, an operation can correspond to execution of a test case, of a program path, etc. Some input data set is connected with every operation and operation consists in executing of the software with that data set. An operation can be viewed as a transformation of an input state to an output state. One recognizes the possibility of a software failure by noting a discrepancy between the actual value of a variable occurring during an operation and the value of that variable expected by users. We can view the execution of a program as a single entity, lasting for months or even years for real-time systems. However, it is easier to characterize the execution if you divide it into a set of operations. Then the environment is specified by the operational profile, where operational profile is a complete set of operations with their probabilities of occurrence. Probability of occurrence refers to probability among all invocations of all operations. In turn, there are many possible instances of operations, each called a run. During execution, the factors that cause a particular operation and a particular run within that operation to occur are very numerous and complex. Hence, we can view the 114 Using an optimization methods to selection the best software developer operations required of the program as being selected randomly in accordance with the probabilities just mentioned. The runs within those operations also occur randomly with various probabilities. A run is specified with respect to the operation of which it is a part by its input state or set of values for its input variables. Input variables are variables that exist external to an operation and influence its execution. The input state is not the same thing as the machine state, which is the much larger set of all variable values accessible to the computer. The machine state also includes variables that do not affect a run and are not set by it. Recurrent runs have the same input state. We judge the reliability of a program by the output states (sets of values of output variables created) of its runs. Note that a run represents a transformation between an input state and an output state. Multiple input states may map to the same output state, but a given input state can have only one output state. The input state uniquely determines the particular instructions that will be executed and the values of their operands. Thus, it establishes the path of control taken through the program. It also uniquely establishes the values of all intermediate variables. Whether a particular fault will cause a failure for a specific run type is predictable in theory. However, the analysis required to determine this is impractical to pursue. It is noteworthy that such a way of software working is typical for greater part of software which are exploited in practice. As typical examples can be use reservations programs, inquiry programs, storage economy programs, registration and record programs and many others. Both the human error process that introduces faults into software code and the run selection process that determines which code is being executed at any time and under what conditions, and hence which faults will be stimulated to produce failures, are dependent on an enormous number of time-varying variables. Hence, researchers have generally formulated software reliability models as random processes in time. The models are distinguished from each other in general terms by the probability distribution of failure times or number of failures experienced and by the nature of the variation of the random process with time. A software reliability model specifies the general form of the dependence of the failure process on the factors mentioned. You then particularize it by estimating its parameters. It is assumed that tasks arrive to the software in a random way and time intervals τk k=1,2,…, between succeeding tasks are independent random values with the same distribution function G(t), t≥0. Let L(t) mean a number of tasks which arrive to the software at time [0, t]. For t≥0 value L(t) is a random variable, L(t)∈{1,2,3,…}. The process {L(t), t≥0} is a some stochastic process with continuous time parameter and countable infinite set of states. A result of the growing maturity of software development is that it is no longer adequate that software simply works; it must now meet other customer-defined criteria. Software development is very competitive, and there are many competent software developers, spread throughout the world. Surveys of users of software-based systems generally indicate users rate on the average the most important quality characteristics as: reliability, rapid delivery, and low cost (in that order). In a particular situation, any of these major quality characteristics may 115 Kazimierz WORWA predominate. The quality of the software system usually depends on how much time development (especially testing) takes and what technologies are used. On the one hand, the more time people spend on development and testing, the more errors can be removed, which leads to more reliable software; however, the testing cost of the software will also increase. On the other hand, if the testing time is too short, the cost of the software could be reduced, but the customers may take a higher risk of buying unreliable software [7]. This will also increase the cost during the operational phase, since it is much more expensive to fix an error during the operational phase than during the testing phase. When choosing a software developer the user is interested in a software quality (measured for example by a failure intensity), a development time and a development cost. For the purpose of this chapter a software developer will be characterized by a probability of correct realization by the software of single task, i.e. probability of correct execution of the software with single input data set. Let q mean this probability. Respectively, let p=1–q mean a probability of incorrect realization of single task, whereas realization of single task is incorrect if some errors appear during execution of the software with data set connected with that task. It is obvious that probabilities q and p=1–q characterize software developer. In general, value of q depends on the development methods and technologies, the lifecycle development process as well as the capabilities of the engineering design team. Let N(t) mean a number of tasks which have incorrect realization during time period [0, t], i.e. during service of which some software errors appear. If we assume that none task which arrives to the software will be lost (system with an infinitive queue) value N(t) can be determined as follows L( t ) N(t) = ∑ Xn , (1) n =0 where values X n , n = 1,2, ..., L(t) are random variables with the same zero-one distributions P( X n = 1 ) = p , P( X n = 0 ) = q . For a some natural number m random variable N(t) has following binomial distribution m n m−n p q for m ≥ n , P( N ( t ) = n L( t )=m ) = n 0 for m < n (2) where n=0,1,2,... . Taking into account (1) and (2) we can determine probability distribution function of random variable N(t) as a border distribution of two-dimentional random variable (N(t), L(t)) ∞ P(N(t) = n) = ∑ P(N(t) = n L(t)= m ) ⋅ P( L( t ) = m ) , n=0,1,2,... (3) m =0 Considering prior assumptions probability P(L(t)=m) can be determined as follows [3] (4) P(L(t) = m) = Gm (t) - Gm + 1 (t), m = 0,1,2,... 116 Using an optimization methods to selection the best software developer where Gm (t) , m ≥ 1 , means distribution function of random variable t m , that has the form m tm = ∑τ k (5) k =1 It is assumed that G0 (t) = 1 and G1 (t) = G(t) . Then, taking into account (2) and (4), we can determine probability distribution function of random variable N(t) as follows m P(N(t) = n) = p n q m − n [ Gm (t) - Gm + 1 (t)] , n=0,1,2,... (6) n A mean value of number of incorrect serviced tasks at time period [0, t] has a following form m E [ N ( t )] = ∑ n ⋅ P( N ( t ) = n ) (7) n =0 where probability P( N ( t ) = n ) is stated by (6 ). For example, if G ( t ) = 1 - e -λt , i.e. when random variables τ k , k = 1,2,... , have the same exponential distribution with λ parameter, we will obtain ∞ m ( λt)m − λt e , n=0, 1, 2, … m! m = n from where, after simple transformation, we have P(N(t) = n) = ∑ n p n q m − n e −λpt , n=0,1,2 . (8) n! Expression to calculate a mean value of random variable N(t) has in this case the form (9) E [ N ( t )] = pλt . P(N(t) = n) = (pλt)n Using (6) we can determine probability of event which consists in no errors will appear during useful exploitation of the software at time period [0, t] . This probability can be obtained from (6) by taking n=0. Both mentioned probability and mean value of number of incorrect tasks at time [0, t] in expression (7) can be used as reliability measures of the software under investigation. It is worth to add that these measures unlike most reliability measures which can be found in subject literature, e.g. in [2, 6-7, 8] take into account not only reliability level of the software but circumstances of its exploitation as well. 3 Formulation of a bicriterial optimization problem of choice of the software developer Mean value of number of incorrect serviced tasks during useful exploitation of the software at a given time period, appointed by (7), can be used as one of criteria (quality criterion) to determine a compromise which reconciles requirements of user of a software regarding its both reliability level maximization and production cost minimization. A practical problem of choice of the best software developer by a potential user of that software will be considered. The user can choose one of some number possible developers 117 Kazimierz WORWA of the software taking into account characterization of both software exploitation circumstances and technology of software development. Let I mean set of numbers all possible software developers I = {1, 2, ...,i, ..., I}. From software user’s viewpoint the i-th developer will be characterized by pair of numbers (qi, ki), where qi means probability of a correct execution of the software with a single input data set if the software is developed by the i-th developer, and ki means cost of the software development by the i-th developer. Because individual developers use different project and implementation methods, have a different computer equipment, use different organization and management styles and so on, characteristics qi, ki can be different for every developer. The software exploitation circumstances, i.e. circumstances in which it will be used, will be characterized by means of function G(t) which is distribution function of time intervals between succeeding demands of use the software. We still assume that time intervals are independent random variables with the same distribution. A choice which is made by the user will be characterized by means following zero-one vector X = ( x1 , x 2 ,..., xi ,.., x I ) where 1 if the software is developed by the i - th developer xi = , 0 if not (10) while I ∑ xi = 1 . (11) i =1 Expression (11) ensures that software is developed by exactly one developer . Let N t (X) mean software reliability coefficient for choice X, that is interpreted as a mean value of incorrect serviced tasks arriving to the software at time period [0, t]. According to (7) coefficient N t (X) can be determined as follows I N t (X) = ∑ xi ⋅E[N(t)] , (12) i =1 where value E[N(t)] is stated by (7) with substitutions pi, qi instead p and q respectively. Let K(X) denote a development cost of the software for choice X. This cost can be determined as follows I K ( X ) = ∑ xi ⋅ ki , i =1 where k i means cost of the software developed by the i-th developer. 118 (13) Using an optimization methods to selection the best software developer On the base prior assumptions and expressions that were obtained we can formulate following bicriterial optimization problem of choice of software developer ( X ,F ,R ) , (8) where: X is a feasible solution set which is defined as follows X = {X = (x 1 , x2 ,..., xi ,..., xI ) : X complies with constraints (10),(11)} ; F is a vector of quality coefficient which has form F(X) = (N t (X), K(X)) , where values N t (X) , K(X) are determined by expressions (12) and (13) respectively; R is a so-called domination relation which is defined as follows R = {( y1 , y2 ) ∈ Y × Y : y11 ≤ y21 , y12 ≤ y22 } , y1 = ( y11 , y12 ) , y2 = ( y21 , y22 ) , whereas Y is so-called objective function space Y = F( X ) = {y = (N t (X), K(X)) : X ∈ X } . The problem (14) is a bicriteria optimization problem with linear objective functions and linear constraints. A solution of this problem can be obtained by using well known methodology of solving multiple optimization problems [9]. According to that methodology as a solution of the problem (14) we can determine: • • a dominate solution set, a nondominate solution set, • a compromise solution set. Taking into account that values of objective functions Nt(X) and K(X) are inverse (in sense that if a value Nt(X) is decreased, the value K(X) is increased) it is reasonable to expect that the dominate solution set will be empty. In a such situation practically recommended approach is to determine a nondominate solution set. If this set is very numerous we can narrow it down by determining a so-called compromise solution, i.e. such solution belongs to the nondominate solution set that is a nearest (in sense Euclidean distance) to the socalled an ideal point [9]. The best software developer that to be chosen after solving the optimization problem (14) will both minimize the value of the number of software tasks Nt(X) which have incorrect realization during time period [0, t] and minimize the value of the software development cost K(X). 4 Numerical example In order to illustrate of considerations that were described some simple numerical example will be presented. Let set of numbers of potential software developers have form I={1,2,3,4,5} and qualitycost characterization of potential developers be as at the table 1. 119 Kazimierz WORWA Tab. 1. Quality-cost characterization of developers i 1 2 3 4 5 qi 0,50 0,80 0,85 0,90 0,95 ki⋅103 5 6 6,5 9,5 12 For the quality-cost parameters that characterize of potential developers from Tab. 1 we will solve the bicriterial optimization problem (14). If we assume that time intervals between task arrivals to the software have exponential distribution G(t)=1–e– λt, t≥0, we will obtain 5 N t ( X ) = λt ∑ xi pi . i =1 According to numerical values qi, ki, i∈I, , that were assumed the feasible solution set has a form X={(1,0,0,0,0), (0,1,0,0,0), (0,0,1,0,0), (0,0,0,1,0), (0,0,0,0,1)}. Tab. 2. Values of the objective function space i Nt(X) K(X) 1 105,00 5000,00 2 42,00 6000,00 3 31,50 6500,00 4 21,00 9500,00 5 10,50 12000,00 A feasible solution set for this problem is a five-elements set of zero-one vectors. We assume that λ=0,21 h-1 and t=1000 h. Objective function values for the feasible solution set are presented at Tab. 2. It is easy to check that the dominate solution set of K(X ) N t (X ) Fig. 1. An illustration of an objective function space (unnormalized Y and normalized Y ) the problem (14) is empty (it is because of objective functions Nt(X) and K(X) are inverse in sense their values). In that case practically recommended approach is to determine a nondominate solution set. It can be easy proved that above set X is a nondominated solution set, i.e. every vector from X is a nondominated solution of the bicriterial optimization problem (14). According to methodology of solving of multiple objective decision problems in such a case we can find a compromise solution with reference to some measure of a distance between so-called ideal point and particular points of the objective function space Y [9]. * * * Co-ordinates of the ideal point y = ( y1 , y2 ) ∈ Y are defined as follows: 120 Using an optimization methods to selection the best software developer y*1 = min N t ( X ) , X ∈X y*2 = min K ( X ) . X ∈X In accordance with assumed values of quality-cost parameters we will have y*1 = 10 ,5 and y*2 = 5000 . In order to narrow down nondominate solution set we will determine a compromise solution of this problem, i.e. such solution belongs to the nondominate solution set that is a nearest (in sense Euclidean distance) to the so-called an ideal point [9]. For this reason both objective functions N t (X) and K(X) determined by (12) and (13) respectively, will be normalized by means of the following formulae [9]: Nt ( X ) = N t ( X ) − N min (X ) t max Nt min ( X )− Nt ( X ) K( X ) = , K ( X ) − K min ( X ) , K max ( X ) − K min ( X ) (15) where N min ( X ) = min N ( X ) , t X∈ ∈X t N max ( X ) = max N ( X ) t X∈ ∈X t K min ( X ) = min K ( X ) , , K max ( X ) = max K ( X ) X∈ ∈X X∈ ∈X (16) (17) where X is a feasible solution set. Tab. 3. Values of the normalized objective function space i 1 2 3 4 5 0,33 0,22 0,11 0,00 1,00 0,14 0,21 0,64 1,00 0,00 K(X ) As a result of the normalization both normalized objective functions N t (X ) and K(X ) have values belong to range [0, 1]. It is easy to notice that in the example that is considered the ideal point ( N t (X ) , K(X ) ) is of the form ( N t (X ), K(X )) = ( 0 , 0 ) . The searched compromise solution X o ∈ X can be determined as follows X o = F −1 ( y o ) , N t (X ) where point y o = ( y1o , y2o ) ∈ Y minimizes the above norm, i .e . y* − y o = min y* − y . y ∈Y According to numerical values which were assumed we have y o = (0.22,0.21) and respectively X o = (0,0,1,0,0) and it means that an optimal variant of the software development is for i=3. Table 2 presents the results of solving the optimization problem (14). The row (in bold) that corresponds to the vector is the compromise solution of this problem, i.e. this is a 121 Kazimierz WORWA such vector that is a nearest to the ideal point (0, 0), where a distance function d[( N t ( X ), K ( X ) ), (0, 0)] is of the form d[( N t ( X ), K( X )), (0, 0)] = [ N t ( X )] 2 + [ K( X )] 2 . (18) o It is easy to notice that the vector X = ( 0 , 0 , 1, 0 , 0 ) complies following condition d[( N t ( X o ), K( X o )), (0, 0)] = min d[( N t ( X ), K( X )), (0, 0)] (19) X∈ ∈X Tab. 4. Compromise solution of the optimization problem (14) i X1 X2 X3 X4 X5 N t ( X ) Nt ( X ) K( X ) K( X ) d [( N t ( X ), K ( X )),( 0 ,0 )] 1 1 0 0 0 0 105,0 1,00 5000,0 0,00 1,00 2 0 1 0 0 0 42,0 0,33 6000,0 0,14 0,36 3 0 0 1 0 0 31,5 0,22 6500,0 0,21 0,31 4 0 0 0 1 0 21,0 0,11 9500,0 0,64 0,65 5 0 0 0 0 1 10,5 0,00 12000,0 1,00 1,00 5 Concluding remarks The chapter proposes some formal way of choosing a software developer by formulating and solving the bicriterial optimization problem will both minimize the value of the number of software tasks which have incorrect realization during some time period and minimize the value of the software development cost. An interpretation of terms ''task'' and ''service'' makes possibility to refer considerations that were presented to almost every useful software, including so-called real time software. Practical usage of the method of determination of an optimal choice of a software developer which was presented is possible if values qi, ki and distribution functions Gi(t), i∈I are known. These values can be estimated by means of methods that are developed on the base of software reliability theory (see e.g. [4, 6-8]). Set of constraints which is used in bicriterial optimization problem (14) can be changed according to current needs. In particular, that set can be completed by such constraints which would guarantee that values of both software development cost and mean value of tasks that are serviced incorrect would keep within the feasible values. The method of choosing a software developer that has been proposed was illustrated by the simple numerical example. For assumed values of quality-cost characteristics of developers the best producer has been obtained as a compromise solution of the bicriteria optimization problem (14). References 1. IEEE Standard Glossary of Software Engineering Terminology. IEEE Standard 610.12, 1990. 2. Konopacki G., Worwa K.: Uogólnienie modeli niezawodności oprogramowania Shoomana i Jelinskiego-Morandy. Biuletyn WAT, Nr 12, 1984. 122 Using an optimization methods to selection the best software developer 3. Koźniewska I., Włodarczyk M.: Modele odnowy, niezawodności i masowej obsługi. PWN, Warszawa, 1978. 4. Lyu M.R.: Handbook of Software Reliability Engineering. McGraw-Hill, New York, 1996. 5. Malaiya Y.K., Srimani P.K.: Software Reliability Models: Theoretical Developments, Evaluation and Applications. IEEE Computer Society Press, Los Angeles, 1990. 6. Musa J.: Software reliability engineering: more reliable software, faster and cheaper. AuthorHouse, 2004. 7. Pham H.: System software reliability. Springer-Verlag London Limited, 2006. 8. Rykov V.V.: Mathematical and Statistical Models and Methods in Reliability: Applications to Medicine, Finance, and Quality Control. Springer, 2010. 9. Stadnicki J.: Teoria i praktyka rozwiązywania zadań polioptymalizacji. WNT, Warszawa, 2006. 10. Trechtenberg M.: A general theory of software reliability modeling. IEEE Transactions on Software Engineering. Vo1.39, No. 1, 1990. Summary A practical problem of choosing a software developer is considered. This problem is investigated from a user’s viewpoint, i.e. it is assumed that the software which is needed should be not only reliable but as cheap as possible too. The purpose of the paper is to propose some formal way of determining software developer by formulating and solving the bicriterial optimization problem will both minimize the value of the number of software tasks which have incorrect realization during some time period and minimize the value of the software development cost. Some numerical example is presented to illustrate of practical usefulness of the method which is proposed. The exemplary bicriterial optimization problem is solved on the base of the general methodology of solving multicriteria optimization problems. Wykorzystanie metod optymalizacji do wyznaczania najlepszego producenta oprogramowania Streszczenie W artykule przedstawiono propozycję pewnego wskaźnika jakości programu, w konstrukcji którego uwzględniono warunki jego uż ytkowej eksploatacji. Dla zilustrowania przydatności skonstruowanego wskaźnika jakości programu w dalszej części artykułu sformułowano dwukryterialne zadanie wyboru wariantu produkcji programu, z kosztem produkcji i proponowanym wskaźnikiem jakości programu jako kryteriami składowymi. 123