Reiki
Definition: Der Begriff "Reiki" stammt von den japanischen Worten rei (Geist, Seele) und ki (Lebensenergie) und wird in der Regel in westlichen Publikationen als „universelle oder universale Lebensenergie" übersetzt.
Reiki bezeichnet dabei sowohl die Behandlungsform und -technik als auch die hypothetische Energie, mit der gearbeitet wird. Daneben gibt es andere Formen der sogenannten "Energiearbeit" und Techniken des Handauflegens, die aber mit Reiki nicht identisch sind.
Durch die Reiki-Behandlung wird die Steigerung des allgemeinen Wohlbefindens, die Erhaltung von Gesundheit und die Aktivierung der Selbstheilungskräfte im Krankheitsfall angestrebt. Die therapeutische Energiearbeit erfolgt dabei mithilfe der Hände des Reiki-Gebenden. Für Reiki wird von den Praktizierenden in der Regel eine "Einweihung" durch einen Reiki-Lehrer gefordert.
Ziel der Reiki-Behandlung ist die körperliche, geistige, seelische und soziale Gesundheit. Reiki-Praktizierende vertreten einen ganzheitlichen Ansatz und gehen davon aus, dass Veränderungen in einem Bereich Veränderungen in anderen Bereichen bewirken können.