Skip to content

Commit

Permalink
fixed some mistakes in the dutch abstract
Browse files Browse the repository at this point in the history
  • Loading branch information
ISIPINK committed May 15, 2024
1 parent c386519 commit a9be5cd
Show file tree
Hide file tree
Showing 3 changed files with 28 additions and 20 deletions.
17 changes: 9 additions & 8 deletions latex/main paper/dutch_abstract.tex
Original file line number Diff line number Diff line change
@@ -1,22 +1,23 @@
Unbiased algoritmes voor het oplossen van lineaire initiële waardeproblemen zijn
Unbiased algoritmes voor het oplossen van lineaire beginwaardeproblemen zijn
nauwelijks bestudeerd.
Dit wordt aangepakt door het presenteren van unbiased recursieve Monte Carlo-methoden
voor het oplossen van lineaire initiële waardeproblemen en lineaire Fredholm-integraalvergelijkingen
In deze thesis presenteren wij unbiased recursieve Monte Carlo methoden
voor het oplossen van lineaire beginwaardeproblemen en lineaire Fredholm-integraalvergelijkingen
van de tweede soort. Gemotiveerd door random
parallelle complexiteit en downstream-toepassingen voor partiële differentiaalvergelijkingen.

Voorheen waren alleen biased methoden bekend die optimale convergentiesnelheden bereiken
voor niet-lineaire initiële waardeproblemen, wat voornamelijk theoretische betekenis heeft.
De voorgestelde RRMC methode, een unbiased algoritme voor lineaire initiële waardeproblemen,
samen met control variated, wordt vermoed om orde-optimaal te zijn met hoge kans
voor niet-lineaire beginwaardeproblemen, wat voornamelijk theoretische betekenis heeft.
De voorgestelde RRMC methode, een unbiased algoritme voor lineaire beginwaardeproblemen,
samen met control variates, wordt vermoed orde-optimaal te zijn met hoge kans
voor overeenkomstige gladheidsklassen.

Daarnaast wordt het main Poisson algoritme voorgesteld, dat het algoritme in \cite{acebron_monte_2016} veralgemeend,
dat simpel en voorwaarts-implementeerbaar is. Het main Poisson algoritme wordt toegepast op de semi-gediscreteerde
warmtevergelijking om een pad-resampling-techniek te demonstreren, dit biedt een nieuwe perspectief van Walk on Spheres methode,
warmtevergelijking om een pad-resampling-techniek te demonstreren, dit biedt een nieuw perspectief van
het Walk on Spheres algoritme,
met potentieel voor alternatieve veralgemeningen.

De voorgestelde methoden verbreden
wat mogelijk lijkt te zijn met unbiased algoritmes voor
het oplossen van lineaire initiële waardeproblemen,
het oplossen van lineaire beginwaardeproblemen,
en wijzen de weg uit voor verder onderzoek in dit gebied.
Binary file modified latex/main paper/main.pdf
Binary file not shown.
31 changes: 19 additions & 12 deletions latex/main paper/main.tex
Original file line number Diff line number Diff line change
Expand Up @@ -182,9 +182,10 @@ \subsection{Monte Carlo Integration}
needed and accuracy.
\end{definition}

Note that we consider average
amount of function calls as a measure of cost instead of deterministic
amount of function calls used which encompasses a broader range of algorithms.
Note that we consider the average amount of function calls as a measure of cost,
rather than the deterministic amount of function calls used. We implicitly assume that the variance of the amount
of function calls exists, which provides confidence intervals for the function calls through Chebyshev's inequality.


\begin{example}[IBC of (\ref{eq:BLUE})]
In (\ref{eq:BLUE}) the function calls trades of
Expand Down Expand Up @@ -375,7 +376,7 @@ \subsection{Modifying Monte Carlo}
Splitting $X$ refers to utilizing multiple $X_{j} \cong X$ (not necessarily independent) to
reduce variance by taking their average:
\begin{equation}
X \cong \frac{1}{N} \sum_{j=1}^{N} X_{j}.
X \cong \frac{1}{n} \sum_{j=1}^{n} X_{j}.
\end{equation}
\end{definition}

Expand Down Expand Up @@ -743,18 +744,20 @@ \subsection{Recursion}
\begin{definition}[Main Poisson] \label{def:main poisson}
Consider the following linear IVP with $\forall s>0 \in \mathbb{R}: f(s) \in \mathbb{R}^{n}, A(s) \in \mathbb{R}^{n \times n}$:
\begin{align}
y' & = A y + f \Leftrightarrow \\
y'+\sigma y & = (A + \sigma I) y + f\Leftrightarrow \\
e^{-\sigma t} ( e^{\sigma t}y)' & = (A + \sigma I) y + f \Leftrightarrow \\
y(t) & = e^{-\sigma t} y(0) + \int_{0}^{t} e^{(s-t) \sigma} \left( (A(s) + \sigma I ) y(s) +f(s)\right) ds.
y_t & = A(t) y + f(t) \Leftrightarrow \\
y_t + \sigma y & = (A(t) + \sigma I) y + f(t) \Leftrightarrow \\
e^{-\sigma t} ( e^{\sigma t}y)_t & = (A(t) + \sigma I) y + f(t) \Leftrightarrow \\
y(t) & = e^{-\sigma t} y(0) + \int_{0}^{t} e^{(s-t) \sigma} \left( (A(s) + \sigma I ) y(s) +f(s)\right) ds.
\end{align}

With $\sigma>0 \in \mathbb{R}$ . Do following substitution: $e^{(s-t)\sigma} = \tau$ equivalent to importance sampling
the exponential term:
\begin{equation} \label{eq:poisson main}
y(t) = \int_{0}^{e^{-\sigma t}} y(0) d\tau + \int_{e^{-\sigma t}}^{1} \left( \frac{A(s)}{\sigma} + I\right) y(s) + \frac{f(s)}{\sigma} d\tau
.
\end{equation}
Sampling $\tau$ uniformly is equivalent to sampling the next event in a Poisson process.
Sampling $\tau$ uniformly is equivalent to sampling the next event in a Poisson process,
which produces an unbiased estimator of the solution to the linear IVP.
\end{definition}

\begin{julia}[Implementation of \ref{def:main poisson}] \label{jl:main poisson}
Expand All @@ -767,7 +770,7 @@ \subsection{Recursion}
Figure \ref{fig:main poisson error} and Figure \ref{fig:main poisson convergence} demonstrate the convergence
behavior of the estimator. The estimated convergence of RMSE is $O(\sigma^{-0.5} nsim^{-0.5})$, the amount of
time steps is simply $\sim$ Poisson($\sigma t$). Note that unlike MC integration the cost of a simulation is not
a bounded, therefore wall clock time at risk increases with $nsim$.
a bounded, resulting in increased wall clock time at risk as $nsim$ grows for parallel simulations.

\end{julia}

Expand All @@ -786,8 +789,8 @@ \subsection{Recursion}
\begin{figure}[h!]
\centering
\includegraphics[width=\textwidth]{julia_plots/main_poisson_convergence.pdf}
\caption{Realizations of norm of the error of \ref{jl:main poisson} for (\ref{couple recu ex1}) and (\ref{couple recu ex2}) with $a=1$,
$nsim =1$ and $\sigma$ variable or $nsim$ variable and $\sigma = 1$. $nsim$ denoting the number of simulations
\caption{Realizations of norm of the error at $t=1$ of \ref{jl:main poisson} for (\ref{couple recu ex1}) and (\ref{couple recu ex2}) with $a=1$,
$nsim =1$ and $\sigma$ variable or $nsim$ variable and $\sigma = 1$ . $nsim$ denoting the number of simulations
when splitting the whole estimator.}
\label{fig:main poisson convergence}
\end{figure}
Expand Down Expand Up @@ -847,6 +850,10 @@ \subsection{Recursion}
When $(v)_{j} = \delta_{jn}$ we obtain an estimator for $(y(t))_{n}$.
\end{julia}

\begin{related}[Adjoint tail recursion]
\cite{ermakov_monte_2021} also proposes an unbiased method for functionals of linear IVPs.
\end{related}

\section{Ordinary Differential Equations}

\subsection{Green's Functions}
Expand Down

0 comments on commit a9be5cd

Please sign in to comment.