Hankel-Transformation

Hankel-Transformation

Die Hankel-Transformation ist in der Funktionalanalysis, einem Teilgebiet der Mathematik, eine lineare Integraltransformation, welche im Kern auf den Bessel-Funktionen erster Gattung basiert. Sie ist benannt nach dem Mathematiker Hermann Hankel. Anwendungen liegen unter anderem im Bereich der Bildverarbeitung zur Korrektur von Abbildungsfehlern.[1]

Inhaltsverzeichnis

Definition

Bei der Hankel-Transformation gibt es unterschiedliche Konventionen sie zu definieren. Sei f eine komplexwertige Funktion und \nu > - \tfrac{1}{2}. Dann kann man die Hankel-Transformation \operatorname{H}_\nu der Ordnung ν von f durch

 F_\nu(u) = \operatorname{H}_\nu\{f(t)\} = \int_0^\infty f(t) \cdot J_\nu(ut) \cdot t \,\mathrm{d}t

definieren, dabei sind die

J_\nu(x) := \sum_{r=0}^\infty \frac{(-1)^r (\frac{x}{2})^{2r+\nu}}{\Gamma(\nu+r+1)r!}

Bessel-Funktionen erster Gattung und Γ ist die Gammafunktion. Insofern das Integral existiert, nennt man \operatorname{H}_\nu\{f(t)\} die Hankel-Transformierte von f. Diese Konvention der Hankel-Transformation wird überwiegend in diesem Artikel verwendet. In einzelnen Abschnitten wird jedoch die im Folgenden dargestellte Variante verwendet, worauf in den entsprechenden Abschnitten hingewiesen wird.

Eine andere Möglichkeit die Hankel-Transformation der Ordnung \nu > -\tfrac{1}{2} von f zu definieren, ist

 F_\nu(u) = \operatorname{H}_\nu\{f(t)\} = \int_0^\infty f(t) \cdot \sqrt{ut} \cdot J_\nu(ut) \,\mathrm{d}t\,.

Hier werden mit Jν ebenfalls die Bessel-Funktionen erster Gattung bezeichnet und \operatorname{H}_\nu\{f(t)\} heißt auch hier Hankel-Transformierte, insofern das Integral existiert.

Inverse Hankel-Transformation

Ähnlich wie bei der Fourier-Transformation ist es auch bei der Hankel-Transformation unter gewissen Umständen möglich aus der Hankel-Transformierten ihre Ausgangsfunktion zurückzugewinnen. Ein wichtiges Resultat aus der Theorie der Hankel-Transformation besagt, dass, falls f \in L^1(]0,\infty[) eine lebesgue-integrierbare Funktion mit beschränkter Variation ist, die Ausgangsfunktion f aus der Hankel-Transformierten Fν mit der inversen Integraltransformation

 f(t) = \operatorname{H}^{-1}_\nu\{F_{\nu}(u)\} = \int_0^\infty  F_\nu(u) \cdot J_\nu(ut) \cdot u \, \mathrm{d}u

zurückgewonnen werden kann. Die Hankel-Transformation und ihre inverse Transformation sind also gleich. Sie kann daher als involutive Abbildung verstanden werden. Für die alternative Definition gilt diese Aussage analog.

Eigenschaften

Orthogonalität

Die Bessel-Funktionen bilden eine Orthogonalbasis: Es gilt

\int_0^\infty J_\nu(ut) \cdot J_\nu(u't) \cdot t \, \mathrm{d}t = \frac{\delta (u-u')}{u}

für u und u' größer 0 und mit δ als der Delta-Distribution.

Algebraisierung des besselschen Differentialoperators

Sei

B_\nu(f) := \left(r^2 \frac{\mathrm{d}^2}{\mathrm{d} r^2} + r \frac{\mathrm{d}}{\mathrm{d} r} + (r^2 - \nu^2)\right)(f)

der besselsche Differentialoperator. Für die Bessel-Funktionen gilt also Bv(Jv) = 0. Mit Hilfe der Hankel-Transformation ist es möglich diesen Differentialoperator in einen Ausdruck ohne Ableitungen zu überführen. Präzise gilt

\operatorname{H}_\nu(B_\nu(f))(s) = -s^2 \operatorname{H}_\nu(f)(s) \,.

Dies ist eine zentrale Eigenschaft der Hankel-Transformation zum Lösen von Differentialgleichungen.[2]

Beziehung zur Fourier-Transformation

Die Hankel-Transformation hat einige Analogien zur Fourier-Transformation. Insbesondere lässt sich die Hankel-Transformierte durch eine zweidimensionale Fourier-Transformation berechnen. Sei dazu \phi \colon \R^2 \to \C eine radialsymmetrische Funktion. Das heißt die Funktion f(r,θ): = ϕ(rcos(θ),rsin(θ)) ist unabhängig von θ, weshalb sie im Folgenden nur mit dem Parameter r notiert wird. Von dieser Funktion f wird nun mit Hilfe der Funktion ϕ und der Fourier-Transformation die Hankel-Transformierte beschrieben.

Um dies zu sehen, wird das Fourier-Integral


\mathcal{F}(\phi)(\xi_1,\xi_2) = \frac{1}{2 \pi} \int_{\R^2} \phi(x,y) e^{-i(x \xi_1 + y \xi_2)} \mathrm{d}(x,y)

von ϕ in Polarkoordinaten transformiert, was zu

\begin{align}
\mathcal{F}(\phi)(s \cos(\sigma),s \sin(\sigma)) =& \frac{1}{2 \pi} \int_{r=0}^\infty r \int_{\theta = 0}^{2\pi} \phi(r \cos(\theta), r \sin(\theta)) e^{-i s r\cos(\theta - \sigma)} \mathrm{d} \theta \mathrm{d} r\\
=& \frac{1}{2 \pi} \int_{r=0}^\infty r f(r) \int_{\alpha = 0}^{2\pi} e^{-i s r\cos(\alpha )} \mathrm{d} \alpha\mathrm{d} r\\
=& \int_{r=0}^\infty r f(r) J_0(s r) \mathrm{d} r
\end{align}

führt. Dies zeigt, dass eine Fourier-Transformation einer radialsymmetrischen Funktion immer der Hankel-Transformation einer entsprechenden Funktion entspricht. Insbesondere ist es möglich zu einer gegebenen Funktion f \colon ]0, \infty[ \to \C eine entsprechende radialsymmetrische Funktion ϕ zu konstruieren, mit der man durch Fourier-Transformation die Hankel-Transformierte von f berechnen kann.

Hankel-Transformation für Distributionen

Ebenfalls wie bei der Fourier-Transformation ist es bei der Hankel-Transformation auf analoge Weise möglich sie auf Distributionen zu verallgemeinern. Im Gegensatz zur Fourier-Transformation kann die Hankel-Transformationen nicht auf dem Raum der temperierten Distributionen definiert werden. Daher definiert man einen neuen Raum H_\nu(]0,\infty[) und erklärt die Hankel-Transformation für Distributionen auf seinem Dualraum.

Distributionenraum

Sei \nu \in \R, dann ist H_\nu(]0,\infty[) definiert durch

H_\nu(]0,\infty[) := \left\{\phi \in C^\infty(]0,\infty[)\left|\forall k,m \in \mathbb{N}_0 : \sup_{x \in ]0,\infty[} \left|x^m \left(\tfrac{1}{x} \tfrac{\mathrm{d}}{\mathrm{d} x}\right)^k(x^{-\nu-\frac{1}{2}} \phi(x))\right| < \infty \right.\right\} \,.

Auf diesem Vektorraum wird zusätzlich eine Topologie in Form eines Konvergenzbegriffs definiert. Eine Folge (\phi_j) \subset H_\nu(]0,\infty[) konvergiert genau dann gegen Null, wenn

\lim_{j \to \infty} \sup_{x \in ]0,\infty[} \left|x^m \left(\tfrac{1}{x} \tfrac{\mathrm{d}}{\mathrm{d} x}\right)^k(x^{-\nu-\frac{1}{2}} \phi_j(x))\right| = 0

für alle k,m \in \N_0 gilt. Durch Bilden des topologischen Dualraums erhält man den Distributionenraum H_\nu'(]0,\infty[), auf dem man die Hankel-Transformation definieren kann. Beispielsweise sind alle Distributionen mit kompaktem Träger in ]0,\infty[, wie die Delta-Distribution eine ist, in dem Raum H_\nu'(]0,\infty[) enthalten.

Hankel-Transformation

Für T \in H_\nu'(]0,\infty[) ist die Hankel-Transformation für alle \phi \in H_\nu(]0,\infty[) definiert durch

\operatorname{H}_\nu(T)(\phi) := T(\operatorname{H}_\nu(\phi))\,.

Der Ausdruck \operatorname{H}_\nu(\phi) ist wieder eine Hankel-Transformation einer Funktion und daher definiert. Aufgrund der Konstruktion des Raums H_\nu(]0,\infty[) wird hier allerdings die Konvention \textstyle \operatorname{H}_\nu(\phi) = \int_0^\infty f(t) \sqrt{ut} J_\nu(ut) \,\mathrm{d}t für die Transformation verwendet.

Wie bei der Fourier-Transformation für Distributionen führt man auch die Hankel-Transformation nicht auf der Distribution selbst aus, sondern sie wird auf der Testfunktion ϕ berechnet.

Beispiele

Signal
f(t)\,
Hankel-Transformierte
F_0(u) := \operatorname{H}_0(f)(u)\,
1\, \delta(u)/u\,, gültig für u \neq 0
1/t\, 1/u\,
t\, -1/u^3\,
t^3\, 9/u^5\,
t^{m}\, \frac{2^{m+1}\Gamma(m/2+1)}{u^{m+2}\Gamma(-m/2)}\,, gültig für ungerades m
\frac{1}{\sqrt{t^2+z^2}}\, \frac{e^{-u|z|}}{u}=\sqrt{\frac{2|z|}{\pi u}}K_{-1/2}(u|z|)\,
\frac{1}{t^2+z^2}\, K_0(uz)\,, z \in \C
e^{\mathrm{i}at}/t\,  \mathrm{i}/\sqrt{ a^2 - u^2} \quad (a>0, u<a) \,

 1/\sqrt{ u^2 - a^2} \quad (a>0, u>a) \,

e^{-a^2t^2/2}\, \frac{e^{-u^2/2a^2}}{a^2}
-t^2 f(t)\, \frac{d^2 F_\nu}{du^2}+\frac{1}{u}\frac{d F_\nu}{du}

In diesem Abschnitt wird mit Kn(z) die Bessel-Funktionen zweiter Gattung n-ter Ordnung, mit Γ die Gammafunktion, mit i die imaginäre Einheit und mit δ wieder die Delta-Distribution bezeichnet. In der Tabelle auf der rechten Seite werden noch zusätzlich einige Paare von Hankel-Transformationen gelistet.[3]

Die Hyperbel 1/t

Für die Hankel-Transformierte nullter Ordnung von \tfrac{1}{t} gilt

\begin{align}
\operatorname{H}_0\left( \frac{1}{t} \right)(s) =& \int_{0}^\infty t \cdot \frac{1}{t} \cdot J_0(st) \mathrm{d} t\\
=& \int_{0}^\infty J_0(st) \mathrm{d} t\\
=& \frac{1}{s}\,.
\end{align}

Die Funktion \tfrac{1}{t} ist also ein Fixpunkt der Hankel-Transformation.

Die Gaußsche Glockenkurve

In diesem Abschnitt wird die Berechnung der Hankel-Transformation von der gaußschen Glockenkurve e^{-\frac{x^2}{2}} mit Hilfe der Fourier-Transformation skizziert. Da die Funktion analytisch ist, kann sie auf \C \cong \R^2 fortgesetzt werden und ist dort sogar radialsymmetrisch. Daher kann die Hankel-Transformierte mit der Fourier-Transformation über \R^2 berechnet werden. Für die Fourier-Transformation ist e^{-\frac{x^2}{2}} ein Fixpunkt, woraus folgt, dass Hankel-Transformierte von e^{-\frac{x^2}{2}} ebenfalls wieder e^{-\frac{x^2}{2}} ist. Also ist die gaußsche Glockenkurve ebenfalls ein Fixpunkt der Hankel-Transformation.[2]

Die Delta-Distribution

In diesem Beispiel wird die Hankel-Transformation nullter Ordnung der Delta-Distribution δ berechnet. Es gilt

\begin{align}
\operatorname{H}_0(\tfrac{1}{u} \delta_0)(\phi) =& \operatorname{H}_0(\delta_0)(\tfrac{1}{u} \phi) = \delta_0(\operatorname{H}_0(\tfrac{1}{u} \phi)) = \operatorname{H}_0(\tfrac{1}{u} \phi)(0)\\
 =& \int_{0}^\infty \tfrac{u}{u} J_0(0) \phi(u) \mathrm{d} u\\
 =& \int_0^\infty \phi(u) \mathrm{d} u\,.
\end{align}

Der Ausdruck \textstyle \int_0^\infty \phi(u) \mathrm{d} u ist als Distribution, die von der konstanten Einsfunktion erzeugt wird, zu verstehen. Im Bereich der Physik notiert man die Delta-Distribution oftmals unpräzise als reellwertige Funktion und nicht als Funktional. In diesem Fall kürzt sich die Berechnung der Hankel-Transformation auf

\operatorname{H}_0(\tfrac{1}{u} \delta_0)(t) = \int_0^\infty \delta(u) \cdot \frac{1}{u} \cdot u \cdot J_0(tu) \mathrm{d} u = J_0(0) = 1\,.

Möchte man umgekehrt die Hankel-Transformierte der konstanten Einsfunktion berechnen, stößt man beim Einsetzen in die Integraldarstellung auf ein divergentes Integral. Aufgrund von Dichtheitsargumenten ist es trotzdem möglich die Delta-Distribution als Hankel-Transformierte der konstanten Einsfunktion aufzufassen.

Quellen

  • Larry C. Andrews, Bhimsen K. Shivamoggi: Integral Transforms for Engineers. SPIE Press, University of Central Florida, 1999, ISBN 978-0-81943232-2, Kapitel 7.
  • Alexander D. Poularikas: The Transforms and Applications Handbook. 2. Auflage. CRC Press, 2000, ISBN 978-0849385957, Kapitel 9.

Einzelnachweise

  1. Bernd Jähne: Digitale Bildverarbeitung. 6. Auflage. Springer, ISBN 978-3-540-24999-3, S. 219 bis 223.
  2. a b Alexander D. Poularikas: The Transforms and Applications Handbook. 2. Auflage. CRC Press, 2000, ISBN 978-0849385957, Kapitel 9.4.
  3. Alexander D. Poularikas: The Transforms and Applications Handbook. 2. Auflage. CRC Press, 2000, ISBN 978-0849385957, Kapitel 9.11.

Weblinks


Wikimedia Foundation.

Игры ⚽ Поможем написать реферат

Schlagen Sie auch in anderen Wörterbüchern nach:

  • Transformation d'Euler — Transformation binomiale En mathématiques, dans le domaine de l analyse combinatoire, la transformation binomiale est une suite d opérations transformant une suite en une autre, en calculant les différences entre les termes consécutifs. Cette… …   Wikipédia en Français

  • Hankel — ist der Familienname folgender Personen: Gerd Hankel (* 1957), deutscher Jurist und Sprachwissenschaftler Hermann Hankel (1839–1873), deutscher Mathematiker Marie Hankel (1844–1929), Esperanto Dichterin Wilhelm Hankel (* 1929), deutscher… …   Deutsch Wikipedia

  • Hankel matrix — In linear algebra, a Hankel matrix, named after Hermann Hankel, is a square matrix with constant (positive sloping) skew diagonals, e.g.::egin{bmatrix}a b c d e b c d e f c d e f g d e f g h e f g h i end{bmatrix}.In mathematical terms::a {i,j} …   Wikipedia

  • Transformation binomiale — En mathématiques, dans le domaine de l analyse combinatoire, la transformation binomiale est une suite d opérations transformant une suite en une autre, en calculant les différences entre les termes consécutifs. Cette transformation est en… …   Wikipédia en Français

  • Transformation de Shanks — En analyse numérique, la transformation de Shanks est une méthode non linéaire d accélération de la convergence de suites numériques. Cette méthode est nommée d après Daniel Shanks, qui l exposa en 1955[1], bien qu elle ait été étudiée et publiée …   Wikipédia en Français

  • Hermann Hankel — (* 14. Februar 1839 in Halle (Saale); † 29. August 1873 in Schramberg) war ein deutscher Mathematiker. Hankel war der Sohn des Physikprofessors Wilhelm Gottlieb Hankel. Ab 1849 zog die Familie nach Leipzig, wo er die Nicolaischule besuchte und …   Deutsch Wikipedia

  • Matrice de Hankel — En algèbre linéaire une matrice de Hankel, du nom du mathématicien Hermann Hankel, est une matrice carrée dont les valeurs sont constantes le long des diagonales ascendantes, c est à dire dont les indices vérifient la relation ai,j = ai − 1,j + 1 …   Wikipédia en Français

  • Matrice De Hankel — En algèbre linéaire une matrice de Hankel, du nom du mathématicien Hermann Hankel, est une matrice carrée dont les valeurs sont constantes le long des diagonales ascendantes, c est à dire dont les indices vérifient la relation ai,j = ai − 1,j + 1 …   Wikipédia en Français

  • Matrice de hankel — En algèbre linéaire une matrice de Hankel, du nom du mathématicien Hermann Hankel, est une matrice carrée dont les valeurs sont constantes le long des diagonales ascendantes, c est à dire dont les indices vérifient la relation ai,j = ai − 1,j + 1 …   Wikipédia en Français

  • Hermann Hankel — (14 février  1839 29 août  1873), est un mathématicien allemand. Né à Halle en 1839, il entra à l’université de Leipzig en 1857 où il étudia les mathématiques en compagnie de Möbius. Il compléta en …   Wikipédia en Français

Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”