Między teorią a zastosowaniami – matematyka w działaniu. Będlewo, 25–30 maja 2015 r.

 

 

Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku

Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku

Projekt Centrum Zastosowań Matematyki został zakończony w 2015 roku. W latach 2012-2015 zorganizowaliśmy 5 konferencji, 6 warsztatów tematycznych oraz 3 konkursy...

 
Między teorią a zastosowaniami – matematyka w działaniu

Między teorią a zastosowaniami – matematyka w działaniu

Na stronie III edycji konferencji „Między teorią a zastosowaniami – matematyka w działaniu” zamieściliśmy abstrakty oraz harmonogram.

 
 

dr Piotr Bartłomiejczyk (Politechnika Gdańska): Modelowanie zjawisk z dyfuzją

[PDF]

Pojęcie dyfuzji służy do opisu zjawisk fizycznych (przenikanie się gazów, przepływ ciepła), chemicznych (wyrównywanie stężeń), biologicznych (osmoza, modele ekologiczne), medyczne (oddychanie), a nawet społecznych czy ekonomicznych. Pojawia się zatem w wielu różnych naukach, a modelowana jest przy użyciu różnych koncepcji matematycznych. Podstawowe, a dzisiaj już klasyczne, prawa dyfuzji zostały sformułowane przez niemieckiego fizjologa, fizyka i matematyka Adolfa Ficka w połowie XIX wieku w języku analizy wektorowej i równań różniczkowych. Inne podejście wykorzystuje koncepcję błądzenia losowego odkrytego w pierwszej połowie XIX wieku przez Roberta Browna (ruchy Browna). Teoria ruchów Browna była potem rozwijana przez wielu matematyków i fizyków, w tym również przez samego Alberta Einsteina, który wyprowadził równanie dyfuzji dla cząstki w ruchu Browna. Najprostsze i zarazem najbardziej naturalne uogólnienia równania dyfuzji stanowią układy reakcji-dyfuzji, które oprócz składnika dyfuzji zawierają składnik reakcji uwzględniający możliwość przemiany jednej substancji w drugą. Zjawiska modelowane za pomocą równań reakcji-dyfuzji i występują naturalnie w chemii, ale także w biologii i ekologii. Najprostsze jednowymiarowe wersje równania reakcji-dyfuzji były badane przez Kołmogorowa, Petrowskiego i Piskuna oraz Fishera (biologiczne modele rozprzestrzeniania się populacji) w pierwszej połowie XX wieku. Badanie dwuwymiarowych układów reakcji-dyfuzji rozpoczął w drugiej połowie XX wieku Alan Turing, który jako pierwszy zaobserwował, że w dwóch wymiarach stan stabilny w układzie bez dyfuzji może utracić stabilność po uwzględnieniu składnika dyfuzji. Rozwiązania równań reakcji-dyfuzji przejawiają szeroką skalę zachowań, włączając w to tworzenie się fal biologicznych, którym poświęcony będzie mój wykład.

Tytuł własnego wykładu:


dr hab. Marek Bodnar (Uniwersytet Warszawski): Modele matematyczne reakcji biochemicznych

[PDF]

Modele matematyczne reakcji biochemicznych są bardzo różnorodne: od prostych układów składających się z kilku równań różniczkowych zwyczajnych poprzez rozbudowane układy kilkudziesięciu lub kilkuset równań, do modeli zawierających równania z opóźnionym argumentem i równania różniczkowe cząstkowe. Za ich pomocą są modelowane zarówno stosunkowo proste zjawiska, na przykład produkcji i degradacji białka, jak i niezwykle skomplikowane ścieżki sygnałowe. O ile modele składające się z kilku równań zwykle poddają się analizie matematycznej, to bardziej skomplikowane modele można analizować praktycznie wyłącznie przy użyciu numeryki. Przykładami w miarę prostych modeli są układy równań opisujące procesy ekspresji genów. Dwa takie modele, jeden dotyczący białka Hes 1 a drugi białka p53, zaproponował w 2003 Monk. W obu modelach występuje jest opóźnienie odzwierciedlające fakt, że procesy transkrypcji i translacji trwają dłużej niż inne procesy uwzględnione w tych modelach. Opóźnienie, w połączeniu z obecnymi w modelach ujemnymi sprzężeniami zwrotnymi, może powodować (dla pewnych zakresów parametrów) pojawianie się stabilnych oscylacji, które są obserwowane doświadczalnie.

W trakcie mojego wykładu opowiem o wpływie opóźnienia na dynamikę modeli reakcji biochemicznych i problemach, które mogą się pojawić gdy do modelowania procesów biochemicznych wykorzystujemy równania z opóźnionym argumentem.

Tytuł własnego wykładu:


dr hab. Dariusz Bugajewski (UAM Poznań): Prawieokresowość - teoria i zastosowanie

[PDF]

Teoria funkcji prawie okresowych rozwijana jest intensywnie od początku dwudziestego wieku. Za jej twórcę uważa się matematyka duńskiego H. Bohra, jakkolwiek pewnych inspiracji do badania prawieokresowości można dopatrywać się już w pracach J.L. Lagrange’a . Przypomnijmy, że funkcje prawie okresowe pojawiają się w klasycznych zagadnieniach mechaniki, kiedy rozważa się składanie drgań o niewspółmiernych okresach. Zwróćmy również uwagę na interesujący fakt, że quasikryształy, z matematycznego punktu widzenia, można opisać, mówiąc nieprecyzyjnie, jako próbki (wzorce) miar prawie okresowych, to znaczy zbiory, których funkcje charakterystyczne definiują miary prawie okresowe.

Napisano już setki prac dotyczących funkcji prawie okresowych, a więc mogłoby się wydawać, że teoria ta jest już bardzo wyeksploatowana. Okazuje się jednak, że szereg podstawowych kwestii w tej teorii nadal pozostaje otwartych. Wystarczy wymienić tutaj problem istnienia prawie okresowych rozwiązań klasycznych nieliniowych równań różniczkowych.

W wykładzie przedstawimy przede wszystkim nowe wyniki dotyczące funkcji prawie okresowych w sensie Lewitana oraz prawie okresowych względem miary Lebesguela. Szczególną uwagę zwrócimy na operatory splotu oraz na rozwiązania klasycznego równania ewolucji w tych przestrzeniach.

Prezentacje:

  1. Prawieokresowość w modelach typu „integrate and fire” (P. Kasprzak, WMI UAM Poznań).
  2. Quasikryształy – wzorce miar prawie okresowych (P. Maćkowiak, KEM UE Poznań, J. Sadowski, WMI UAM Pozanań).

Ad 1. Jednym z zastosowań układów integrate-and-fire jest modelowanie dynamiki aktywności komórek nerwowych. W tych zazwyczaj jednowymiarowych modelach, dynamika opisywana przez równanie różniczkowe zostaje zaburzona tak zwanym „resetowaniem” do wartości spoczynkowej. We wspominanym na wstępie modelu, resetowanie związane jest ze zjawiskiem generowania potencjału czynnościowego przez neuron, w ogólności natomiast odpowiada sytuacji, gdy układ oscylujący ma praktycznie natychmiastowy czas „relaksacji”. Mimo, iż modele takie są mniej realistyczne (niż na przykład model neuronu Hodgina-Huxley’a), to dzięki swej prostocie są one powszechnie rozważane. Celem wykładu będzie omówienie ogólnych własności układów typu integrate-and-fire, dotyczących w szczególności tak zwanego firing map, to jest odwzorowania stowarzyszonego z wyjściowym układem, którego analiza jest źródłem wielu jakościowych informacji o rozważanym zjawisku. Zainteresowani będziemy głównie sytuacją, gdy funkcja wymuszająca jest okresowa lub prawie okresowa.

Ad 2. Quasikryształy, odkryte przez D. Schechtmana w 1982r. są strukturami, które cechuje pewna regularność, podobna do krystalicznej. To, co je odróżnia, to fakt, iż kryształy tworzą trójwymiarową strukturę okresową, podczas gdy quasikryształy mogą być opisywane jako okresowe dopiero w przestrzeniach wyżej wymiarowych. Podczas wykładu podamy definicję quasikryształu jako wzorca prawie okresowego. W tym celu wprowadzimy pewne uogólnienie funkcji prawie okresowej w sensie Bohra oraz przyjrzymy się miarom prawie okresowym. Okazuje się, że quasikryształy generują pewne uogólnione miary prawie okresowe.

Tytuł własnego wykładu:


dr Agnieszka Gil-Świderska (UPH Siedlce): Równanie dyfuzji w opisie zjawisk zachodzących w heliosferze

[PDF]

Ciekawość człowieka jest tym co nieustannie napędza rozwój, co sprawia, iż budujemy mikroskopy elektronowe, akceleratory cząstek czy sondy kosmiczne. Chcemy wiedzieć! Chcemy poznawać, chcemy zrozumieć.

Do Ziemi nieprzerwanie dociera strumień promieniowania kosmicznego, składający się w przeważającej większości z protonów. Poziom natężenia promieniowania kosmicznego jest ujemnie skorelowany z poziomem aktywności Słońca. Natężenie promieniowania kosmicznego od połowy lat 50 ubiegłego wieku jest rejestrowane na Ziemi dzięki globalnej sieci supermonitorów neutronowych i teleskopów mezonowych. Dane otrzymane z licznych sond kosmicznych pokazują jedynie lokalną sytuację w przestrzeni międzyplanetarnej w okolicach orbity danego próbnika. Natomiast dane o natężeniu galaktycznego promieniowania kosmicznego pobrane z monitorów neutronowych i teleskopów mezonowych charakteryzują globalną sytuację w przestrzeni międzyplanetarnej, dzięki czemu mogą stanowić unikalne narzędzie służące badaniu ogólnych warunków panujących w pobliżu orbity Ziemi. Mogą być traktowane jako uniwersalny wskaźnik występujących w przestrzeni międzyplanetarnej zakłóceń rozchodzących się w dużych obszarach heliosfery.

Transport cząstek promieniowania kosmicznego w heliosferze zachodzi pod wpływem nieustająco ekspandującego od Słońca wiatru słonecznego unoszącego wmrożone pole magnetyczne. Modulacja galaktycznego promieniowania kosmicznego w heliosferze zachodzi w głównej mierze w następstwie fundamentalnych procesów: dyfuzji, konwekcji, dryfów oraz zmiany energii cząstek promieniowania kosmicznego w odpowiedzi na interakcje z wiatrem słonecznym. Do opisu zagadnień słonecznej modulacji promieniowania kosmicznego w różnych skalach czasowych służy równanie transportu Parkera (1965). Jest to niestacjonarne, czterowymiarowe (trzy zmienne przestrzenne oraz energia cząstek promieniowania kosmicznego) równanie różniczkowe cząstkowe II rzędu typu parabolicznego. Rozwiązanie tegoż równania w sposób analityczny jest niemożliwe, a jedynie w sposób numeryczny przy użyciu np. metody różnic skończonych, czy też stochastycznych równań różniczkowych.

Zaletą matematycznego modelowania transportu cząstek galaktycznego promieniowania kosmicznego w heliosferze jest możliwość dokonania porównania wyników rozwiązania numerycznego z rezultatami obserwacji.

Tytuł własnego wykładu:


dr hab. Agnieszka Kałamajska (Uniwersytet Warszawski, IM PAN Warszawa): Zdegerenowane równania eliptyczne i zastosowania

[PDF]

Zdegenerowane równania eliptyczne i paraboliczne występują w wielu modelach matematycznych matematyki stosowanej. Stosujemy je na przykład w zagadnieniach typu dyfuzji, w równaniach logistycznych matematycznej biologii, w astrofizyce, elektrostatyce, chemii, emkonomii czy w teorii sprężystości. Równania te sprawiają trudności, gdyż często aparat analizy fukcjonalnej uzywany standardowo do dowodzenia istnienia, jednoznaczności czy jakościowych własności rozwiązań jest niewystarczający. Nie jest bowiem jeszcze dobrze rozwinięta teoria przestrzeni typu Sobolewa czy innych przestrzeni funkcyjnych z wagami. Potrzebne są na przykład twierdzenia o zanurzaniu z analizą ich zwartości, twierdzenia śladzie, twierdzenia o przedłużaniu, równoważne charakteryzacje przestrzeni funkcyjnych, teoria multyplikatorów w analizie harmonicznej związana z analizą z wagami, czy analiza na przestrzeniach metrycznych, gdzyż zamiast badań w przestrzeni Euklidesowej możemy mieć do czynienia na przykład z analizą na fraktalach, majacej motywacje na przykład w badaniach meteorologicznych. Celem spotkania byłoby:

a) znalezienie motywacji do badań wynikającej z przedstawienia i analizy konkretnych modeli oraz

b) przedstawienie problemów wynikających z analizy modeli wkraczających w zakres szeroko pojętej analizy, na przykład analizy funkcjonalnej czy harmonicznej.

Tytuł własnego wykładu

Propozycja warsztatów:

Proponuję podzielić wystąpienia na:

  • te które dotyczą bezpośrednio modeli matematycznych i mogą w konsekwencji stworzyć kolekcję ważnych problemów które jak dotąd nie mają aparatu matematycznego wystarczającego do badań;
  • te które dotyczą rozpoczetych badań nad problematyką równań zdegenerowanych i wskazują na otwarte problemy teoretycznej analizy, które warto rozwiązać ze względu na klarowną motywację wynikającą z podjętej problematyki.

Konkretny podział będzie uzależniony od liczby zainteresowanych uczestników.

dr hab. Piotr Maćkowiak (Uniwersytet Ekonomiczny w Poznaniu): Teoria punktu stałego a ekonomia

[PDF]

Równowaga jest dla teorii ekonomii pojęciem podstawowym. Oznacza ona pewien stan niezmienniczy (inwariantny), w którym gospodarka może pozostawać dowolnie długo. W gospodarce konkurencyjnej równowagę zwykle utożsamia się z cenami równowagi, tj. takimi cenami przy których dochodzi do zrównania popytu z podażą, przy czym konsumenci i producenci realizują swoje zamiary; w ekonomii neoklasycznej, a również na gruncie modeli input-output, w równowadze znajduje się gospodarka, która rośnie w sposób równomierny zachowując strukturę i tempo wzrostu (tzw. równowaga wzrostu), etc. Przyjęcie paradygmatu równowagi w ekonomii umożliwia konstrukcję matematycznych obrazów gospodarki (modeli), w których stan równowagi utożsamia się ze stanem stacjonarnym systemu dynamicznego opisywanego przez układ równań (lub ogólniej inkluzji) różniczkowych lub różnicowych. Tak rozumiany stan równowagi jest funkcją parametrów modelu (zwanych parametrów równowagi), dzięki czemu możemy śledzić wpływ parametrów modelu na funkcjonowanie gospodarki, co stwarza szerokie pole zastosowań dla modelowania matematycznego z perspektywy (teorii) ekonomii i podejmowania decyzji. Podstawowym problemem, nawet z punktu widzenia zastosowań, jest zatem istnienie stanu równowagi, który formalnie można traktować jako punkt stały (lub zero) odpowiedniego przekształcenia.

Tytuł własnego wykładu:


dr hab. Dorota Mozyrska (Politechnika Białostocka): Metody stabilizacji dynamiki populacyjnej

[PDF]

Zastosowania metod matematycznych w opisie procesów biologicznych to najczęściej modelowanie dynamiki populacji. Jedną ze szczególnie pożądanych własności dynamiki populacji jest odpowiednio określona, dostosowana do interpretacji w opisie populacji, stabilność układu. W ciągu ostatniego dwudziestolecia zaproponowano kilka sposobów stabilizacji dynamiki opisującej populacje biologiczne pojedynczego gatunku jak i metapopualcji. Metody te poddawano weryfikacji stosując różne modele dynamiki populacji modele i bardzo różne koncepcje stabilności. Należy zwrócić uwagę, iż dynamiki populacji są zależne od historii życia gatunku, rozwoju pokoleń ale także od wpływu innych czynników. Ponadto można rozważać różne rodzaje stabilności wielkości populacji. W celu utrzymania poziomu populacji stosuje się również odpowiednie metody sterowania poziomem populacji. Jedną ze stosowanych metod jest np. ALC (Adaptive Limiter Control). Badanie przydatności danej metody może zostać przeprowadzone numerycznie lub analitycznie. Wydaje się zasadne dokonanie przeglądu różnych metod stabilności zarówno dla dynamiki z czasem ciągłym jak i dyskretnym. Ponadto zasadne wydaje się zastosowanie własności granicznych układów dyskretnych lub ciągłych. Modelowanie może dotyczyć populacji badanych w warunkach laboratoryjnych z zachowaniem w modelu odpowiedniego zaburzenia.

Tytuł własnego wykładu


dr inż. Justyna Signerska-Rynkowska: Układy dynamiczne w modelowaniu komórek nerwowych i sieci neuronowych

[PDF]

Próby opisania zachowania się biologicznych neuronów sięgają przynajmniej początków XX w., kiedy to w 1907 r. francuski neurobiolog Louis Lapicque podał pierwszy prosty model pojedynczego neuronu składający się z jednego prostego równania różniczkowego. Dzisiaj model ten, lekko zmodyfikowany, wraz z dodatkowym warunkiem „resetowania” znany jest jako „leaky integrate-and-fire” i pozostaje często używany zwłaszcza w symulacjach dużych sieci neuronowych. Innym przełomowym momentem było niewątpliwie sformułowanie w 1952 r. przez Alana Hodgkina i Andrew Huxleya modelu opisującego mechanizmy jonowe w neuronie w wyniku badań eksperymentalnych nad aksonem kałamarnicy olbrzymiej (za które otrzymali zresztą później nagrodę Nobla). Model ten składał się już z czterech równań różniczkowych, zdecydowanie nieliniowych. Od tego czasu powstało wiele innych modeli, mających często służyć za modele uproszczone oryginalnego układu Hodgkina i Huxleya, stąd bardziej wydajne w wielkoskalowych symulacjach sieci neuronowych, a jednocześnie będących w stanie odzwierciedlić istotne z danego punktu widzenia właściwości elektrofizjologiczne neuronu.

Z drugiej strony, w szczególności tzw. „hybdrydowe” układy dynamiczne, będące połączeniem układów ciągłych z dyskretnymi stanowią obecnie obiekt wzrastającego zainteresowania ze względu na olbrzymi potencjał w modelowaniu rożnego rodzaju zjawisk fizycznych, biologicznych czy ekonomicznych, a jednocześnie są one wyzwaniem z matematycznego punktu widzenia, ponieważ metody ich badania dopiero zaczynają się rozwijać. Przykładowo, w modelach aktywności neuronów możemy opisać ewolucję w czasie potencjału błonowego komórki oraz innych zmiennych biologicznych za pomocą równań różniczkowych, a z kolei zjawiska generacji potencjału czynnościowego jako dyskretne „wydarzenia” polegające na „resetowaniu” tych zmiennych w odpowiednich momentach, wprowadzające nieciągłości do początkowej ciągłej dynamiki zadanej przez równania różniczkowe. Okazuje się, że w tym wypadku (są to właśnie tzw. modele typu integrate-and-fire) dynamikę układu można efektywnie opisać za pomocą odwzorowania zwanego firing/adaptation map, którego orbity odzwierciedlają naturę „spike-trains” (szeregu czasowego kolejnych potencjałów czynnościowych). Analizę firing/adaptation map można sprowadzić do badania odwzorowań okręgu lub odcinka (w tym również odwzorowań nieciągłych), wykorzystując m.in. teorię rotacji.

Wiele modeli cały czas dostarcza interesujących wyzwań w dziedzinie matematyki, w szczególności układów dynamicznych. Współczesne metody matematyczne stosowane przy ich analizie wykorzystują miedzy innymi nowe interesujące rodzaje bifurkacji (np. tzw. „canards”) czy oscylacji (tzw. Mixed-Mode Oscillations), a także stochastyczne równania różniczkowe. Można sobie wyobrazić, ze jeśli dynamika jednej komórki jest już dość skomplikowana, to próba rygorystycznego opisania całej sieci oddziałujących ze sobą neuronów jest jeszcze trudniejszym zadaniem.

Tytuł własnego wykładu:


dr hab. Agnieszka Wiszniewska-Matyszkiel (Uniwersytet Warszawski): Teoria gier i jej zastosowania

[PDF]

Teoria gier to dziedzina matematyki będąca narzędziem do opisu takich sytuacji podejmowania decyzji, w których podejmujących decyzje (zwanych graczami) jest co najmniej dwóch, mają oni różne cele (co można wyrazić przez maksymalizację pewnych funkcji wypłaty) i występuje pomiędzy nimi pewna interakcja, przez co decyzje podjęte przez gracza (definiujące jego strategię) mają wpływ na realizację celu przez innych graczy (czyli argumentami funkcji wypłaty graczy są całe profile strategii, wybranych przez wszystkich graczy). Teoria gier jest więc narzędziem do modelowania zarówno sytuacji konfliktu, jak i kooperacji.

Sesja tematyczna będzie poświęcona teorii gier i jej zastosowaniom w różnych dziedzinach — zarówno nauki, jak i życia. Sesja będzie zapoczątkowana wykładem wprowadzającym do teorii gier, w tym także gier dynamicznych. W ramach tego wykładu uczestnicy zapoznają się między innymi z równowagą Nasha i optymalnością w sensie Pareto. W ramach sesji planowane są też wystąpienia uczestników, dotyczące między innymi dużych gier, gier dynamicznych, gier kooperacyjnych, gier stochastycznych, gier na grafach, a także zastosowań teorii gier w ekonomii, ekologii, socjologii, kryminalistyce, obronie narodowej czy biologii.

Tytuł własnego wykładu:



[PDF]

Since Darwin biologists have recognized the need for a specialized mathematical apparatus to study inter-species measurements. However it was only Felsenstein [1985]’s independent contrasts method [although similar models were discussed earlier, e.g. Edwards, 1970] that proposed an appropriate framework for correctly analyzing trait data obtained from different taxonomic units. What makes such data different from the usual independent, identically distributed sample setting is that species level measurements are not independent. Due to a shared evolutionary history one can easily observe that more recently diverged species tend to be similar. Therefore using standard statistical methodologies, will make it impossible to distinguish between similarities due to shared environment or trait function (selection and adaptation) and phylogenetic inertia.

To remedy this situation Felsenstein [1985] assumed that a trait evolves as a Brownian motion on top of a phylogenetic tree. Along a branch we have usual Brownian motion evolution until a speciation point is reached. After speciation along the daughter branches two independent Brownian motions start running. Their initial values are the value of the process just before the speciation event. Very quickly this method (called independent contrasts in the biological community) became a field standard.

However Felsenstein [1988], Hansen [1997] pointed out that a Brownian motion model is not appropriate for traits under stabilizing selection – a pure Brownian motion has no stationary distribution. Therefore they proposed an Ornstein–Uhlenbeck model. Only now due to the increase of computational power is this process taking its place in an evolutionary biologist’s toolbox [Butler and King, 2004, Labra et al., 2009, Hansen and Orzack, 2005, Hansen et al., 2008]. This framework is currently undergoing rapid expansion allowing for measurement error [Felsenstein, 2008, Hansen and Bartoszek, 2012, Rohlfs et al., 2013], multiple interacting traits [Bartoszek et al., 2012] or different drift and diffusion parameters for different clades [Beaulieu et al.,2012].

Usually a phylogenetic comparative method will assume that the tree describing the relationships between species is fully resolved. This however need not always be the case. We do not know all the currently alive species, they are often reclassified or they are undergoing speciation. What may happen also in many insect orders is that molecular based tree inference methods can resolve the tree on the family level but there is not enough information to say much about the clades’ subtrees. Hence there is also a need for tree-free methods. These methods only assume a branching process model conditioned on the number of contemporary tips for the phylogenetic tree. Of course with an unknown tree we can infer much less about the process driving the phenotype’s evolution. However we still may infer a remarkable amount of information and also gain new insights into the species’ evolution.

Using this tree-free framework we may study the expected similarity of species and how quickly they loose it via the so-called interspecies correlation coefficient [Bartoszek, 2014, Bartoszek and Sagitov, 2015, Mulder and Crawford, 2015, Sagitov and Bartoszek, 2012]. We may also derive phylogenetic confidence intervals for the optimal trait values and effectively estimate the stationary variance of an adapting trait [Bartoszek and Sagitov, 2015] or diffusion parameter of a Brownian motion one [Bartoszek and Sagitov, 2014, Crawford and Suchard, 2013]. These methods also allow one to observe a phase transition in phylogenetic inertia. If the speciation process is fast enough then ancestral dependencies have an effect for long stretches [Adamczak and Miłoś, 2011, in press, An\’e et al., 2014, Bartoszek and Sagitov, 2015].

In the first lecture hour I will introduce the field of phylogenetic comparative methods, discuss the biological motivation and mathematical approach of using diffusion type stochastic differential equations to model inter-species data. I will discuss multivariate and measurement error extensions to these methods and illustrate why these are important. The second lecture hour will be more theoretical concentrating on tree-free methods. I will discuss their probabilistic background and what model parameters can be inferred using them.

[PDF]


[PDF]

A dynamical system is a mathematical concept for describing an object varying in time, using a fixed rule that depends on the current state of the object (and not on its past). Dynamical systems can be used to describe a variety of phenomena, such as the growth of a population or spread of an infectious disease. In the first part of the talk, I am going to introduce a framework for automatic classification of global dynamics in a dynamical system depending on a few parameters (such as fertility rates or disease transmission rates). A set-oriented topological approach will be used, based on Conley’s idea of a Morse decomposition (see [3]), combined with rigorous numerics, graph algorithms, and computational algebraic topology. This approach allows to effectively compute outer estimates of all the recurrent dynamical structures encountered in the system (such as equilibria or periodic solutions), as perceived at a prescribed resolution. It thus provides an automatic computational method for concise and comprehensive classification of all the dynamical phenomena found across the given parameter ranges (see [1], [2]). The method is mathematically rigorous (a.k.a. computer-assisted proof), and has a potential for wide applicability thanks to the mild assumptions on the system.

In the second part of the talk, I am going to discuss a few interesting applications. First, I am going to show a population model which contradicts the commonly held belief that the initial state of a population doesn’t matter, because it will eventually stabilize at the equilibrium (see [1]). Next, I am going to show a model which shows that increasing the use of pesticides may sometimes actually increase the amount of pests (see [4]). Finally, I am going to show that incorporating spatial dispersal of individuals into a simple vaccination epidemic model may give rise to a model that exhibits rich dynamical behavior, not normally found in the simple epidemic models (see [5]).

Bibliography:

[1] Z. Arai, W. Kalies, H. Kokubu, K. Mischaikow, H. Oka, P. Pilarczyk, A database schema for the analysis of global dynamics of multiparameter systems, SIAM J. Appl. Dyn. Syst., Vol. 8, No. 3 (2009), 757-789.

[2] J. Bush, M. Gameiro, S. Harker, H. Kokubu, K. Mischaikow, I. Obayashi, P. Pilarczyk, Combinatorial-topological framework for the analysis of global dynamics, Chaos, Vol. 22, No. 4 (2012), 047508.

[3] C. Conley, Isolated invariant sets and the Morse index, CBMS Regional Conference Series in Math., no. 38, Amer. Math. Soc., Providence, RI, 1978.

[4] E. Liz, P. Pilarczyk, Global dynamics in a stage-structured discrete-time population model with harvesting, J. Theoret. Biol., Vol. 297 (2012), 148-165.

[5] D.H. Knipl, P. Pilarczyk, G. Rost, Rich bifurcation structure in a two-patch vaccination model, submitted.


[PDF 1]
[PDF 2]


a. Topology of visual cortex: some theoretical thoughts and novel data, towards a theory of topological optimization

b. The role of noise, disorder and heterogeneity in the dynamics of large cortical networks

In these lectures. I will give an overview of two instances in which mathematical analysis lead to a better understanding of cortical function. Both will revolve around collective dynamics in the mammalian brain. In this domain, an ever-increasing amount of data challenges our understanding of cortex and function. At the center of this problem is the inter-relationship between structure and function of cortical networks, on which we will try to shed new light in the course of our lectures.

a. I will start by presenting some works dealing with the structure and function of the visual cortex. In the early visual cortex of higher mammals, information is processed within functional maps whose layout is thought to underlie visual perception. Here, I will preserit a few theoretical thoughts, simulations and experimental data on the possible principles at the basis of their architecture. as well as their possible role in perception. I will present new data on spatial frequency preference representation in cat: we evidence the presence of a continuous map with singularities around which the map organizes as an electric dipole potential. Mathematically, I will show that both architectures are the most parsimonious topologies ensuring local exhaustive representation. Eventually, I will show using computer simulations how these topologies may improve coding capabilities.

b. Another question that is largely open and that may be addressed using mathematics is the role of noise and disorder in the large-scale dynamics of neuronal networks. In order to investigate these questions, I will introduce the main mathematical tools. from the domain of probability theory. that are used in the modeling of large-scale neuronal networks involved at functional scales in the brain. Limits of large networks with complex topologies will be derived, and I will show how levels of noise shape the collective response, in particular I will present a particularly interesting transition to global synchronization in the network as noise is increased.