什么是九星?
天地初开之时,气化为九星,后来形成天地。因此九星掌管着天地之运行。这九星分别是北斗的贪狼(天枢〉、巨门(天璇〉、禄存(天玑〉、文曲(天权〉、廉贞(玉衡〉、武曲(开阳〉、破军(摇光〉、左辅(洞明〉、右弼(隐光〉。
九宫格
九星与九宫是相配的。九宫则根据洛书的布局变化而来,用九宫格的方式放入1一9九个数字。所谓“天有九星,地有九宫”,九宫就是天上九星在地上的反映,将根据九星的五行属性和颜色,填入九宫。其对应情况就是:贪狼为一白水,巨门为二黑土,禄存为三碧木,文曲为四绿木,廉贞为五黄土,武曲为六白金,破军为七赤金,左辅为八白土,右弼为九紫火。
九星与九宫格
玄空九星指的是什么?
玄空是一种相宅方法,它以阴阳为基础,用五行生克和九星飞宫的原理,来判断方位吉凶。玄空九星与九星飞宫都需要广泛地运用九星,对九星的理解也基本相同,但是它们对生、旺、煞、退、死五气的认识方式不一样,玄空九星更注重山星和向星的分布情况。
什么是紫白飞星?
紫白飞星又称“九星飞泊”,就是以洛书九宫的顺序推排,以住宅坐山为主,并参照后天八卦方位来分布九星的相宅之法。它以一卦所管的三山〈二十四山中,每三山对应一卦),将中央的本山之星安入中宫,依洛书的九宫飞布法,观察中宫卦的五行和其他八宫卦的五行生克状况,并由此判断吉凶。
“元空”指的是“玄空”吗?
元空,又名玄空,其词出于《青囊奥语》中:“雌与雄,交会合元空,雄与雌,元空卦内 推”。又有:“明元空,只在五行中,知此法, 不需寻纳甲。”《青囊序》说道:“晋世景纯传 此术,演经立意出玄空。”蒋平阶在注“江南龙来江北望,江西龙 去望江东”时,这样说道:“杨公看雌雄之法,皆从空处为真龙,故立其名日大玄空,虽云 两片,实一片也。”《地理精蕴》解读说“五行配出九星,顺 逆阴阳,各有玄空,玄空谓何?即元运也。”《地理仁孝必读》中则说:“论元空,如元 为三元之时运,空即水也。如来去之水,要合三元之生旺是也。”但在卷一“太极阴阳 图”中又认为“中为太虚,浑然元气,阴阳未 判。自分阴分阳,老少动静,流行嬗化,而生 万物,此一生二,二生三之定体也。万物一 太极,物物一太极,风水元空之义,如示诸斯 乎。是图名太虚图。”其后者是比较准确的 说法。《元空法监》中说道:“元空行阴阳之气 也。元则未尝不空,空则未尝不元,元空固 随时随地而变者也。”又道:“元空即变易之 理《沈氏玄空学》则认为:“是玄空二字代 一至九之谓然。”即数一至九之变化。
什么是数据元?
看到这个问题吓了一跳。
我很奇怪悟空怎么会邀请我回答这种问题?
不过,在这么热的天气里,也就悟空君还记得我吧?在大多数朋友的记忆里,大概都是以为我在这个炎炎的夏季里已经融化掉了,似乎我已经在朋友的记忆里没有了痕迹。。。
怀着对悟空君感恩的,我在悟空问答里面搜了一下,数据元大概是这么个意思::数据元又称数据类型,通过定义、标识、表示以及允许值等一系列属性描述的数据单元。在特定的语义环境中被认为是不可再分的最小数据单元。数据元是数据单元,是行业领域数据的最小单元。
大家明白了吧?
嗯,不明白也别问我。
因为我更不明白。
空是什么样的境界?
真正想要理解“空”性的话,就来看看须菩提尊者在因地怎样来观空性的!《楞严经》第五卷,请看经文:【须菩提即从座起,顶礼佛足而白佛言:“我旷劫来,心得无碍,自忆受生如恒河沙,初在母胎,即知空寂,如是乃至十方成空,亦令众生证得空性,蒙如来发性真空,空性圆明,得阿罗汉,顿入如来宝明空海,同佛知见,印成无学,解脱性空,我为无上。佛问圆通,如我所证,诸相入非,非所非尽,旋法归无,斯为第一。”】
这段经文是在讲须菩提尊者在因地修行的法门,他通过修「空观」最终成就的。他修的这个法门是非常难的!须菩提尊者是古佛示现的,这个法门一般人是修不了的,非常难。那么,须菩提尊者怎样来示现的,怎么样一步一步证道的?我们具体来看一下,须菩提尊者是佛的十大弟子,其中他是解空第一。先来看经文〖我旷劫来,心得无碍〗须菩提自己在陈述:我旷劫以来啊都是明心见性,然后修禅宗观空性,最终圆满佛果的。〖心得无碍〗是指他已经明白了实相的道理,为什么他无量劫以来就通达了实相道理呢?因为他是古佛再来啊,来示现的,他修这个法门能成就,但是一般的修行人啊,你千万不要修这个法门,难度是非常非常大!〖自忆受生如恒河沙〗他自己回忆啊,自己在因地修行的情况,回忆自己如恒河沙的生生世世啊,他都能历历在目,这里的“受生”观照为在人间的示现。〖初在母胎,即知空寂〗这里是讲他在母胎里还没有出世的时候,就已经知道了「空如来藏」;他已经证道了空性,达到了这种境界。所以大家看一下,是不是不可思议啊,他自己是古佛示现来的,来修这个法门,像这样高难度的法门,也就只能是古佛来示现,这个法门本身难度非常大。大家在这里听,主要了解一下他是怎样修行的这一个过程。〖如是乃至十方成空〗这是他证道的境界,他已经知道尽虚空遍法界都是一念空性啊,这就是典型的通教禅宗的境界,这时呢他就已经证到了。〖亦令众生证得空性〗他还能以此法去教化其他的众生,让他们也明白这个道理。〖蒙如来发性觉真空〗后来他有机缘听到了佛开示「一心三藏」的法理,他在已经明白了「空如来藏」的基础之上;又有机缘碰到了佛,听佛开示了一心三藏法理,他成就了圆教的菩萨果位。可以说为像十地菩萨那样的大阿罗汉,〖性觉真空〗大家注意这里的真空就是指他已经明白无形无相的当下就是一切有形有相十法界万法。〖空性圆明〗可以对应观照为以前所讲过的那个「三空真如」啊,即「人我空、法我空、空也空」,他已经达到了这个境界,这叫空性圆明。其实达到这个境界就已经是八地以上的菩萨了,境界非常非常高啊。所以这里的阿罗汉不能理解为小乘人的阿罗汉,他示现证得的境界,至少是八地以上菩萨证得的境界。〖顿入如来宝明空海〗你看这句经文写得他证得境界啊,就已经证得了如来果位了,所以我说他至少是证得了八地以上菩萨境界。〖宝明空海〗这是指一心三藏!“宝明”观照为十法界一切的森罗万象千变万化;‘明’呢?就是指明明白白的,这一切的有形有相。“空海”不要理解为虚空之海,空海是表‘离一切相’可以对应为「空如来藏」。〖同佛知见〗达到了与佛一样的佛知佛见。「印成无学」他已经达到了无功用道,所证境界最低是八地以上菩萨。「解脱性空」就说他现在证入到的是‘真空’不是初在母胎时候是所证得那个‘空如来藏’了,表明他已经解脱了对‘空如来藏’的执着,不落在空性当中,他现在证得是一心三藏。大家想一想?解脱了‘性空’变成了什么呀?解脱了‘性空’不就证到了‘妙有’了吗!证到了‘妙有’就是‘真空’,真空才能现妙有。〖我为无上〗这里的无上不要理解为世界冠军,不要理解为第一第二啊,这里的无上是指无上无下、无前无后、无内无外,心外无法,法外无心;是表我们的真心是一个绝待之法,没有对待。〖诸相入非〗“非”是指全部否掉。那么“诸相”都是哪些相呢?诸相就是包括一切相,有相和无相通通包含在内,全部否掉。〖非所非尽〗第一个“非”就是指“能非”啊,观照为能非的人,他这里把能字已经减写了,房融在译经的时候总想凑成四个字啊,所以这句经文变成四个字。这里的非就是指‘能非’啊,对应为能非的人。后面的“所非”是指能非的对象,‘能非’的对象就是‘所非’呀,包括一切的色法呀,包括虚空在内啊,这些都属于所非的范围,所以前面第一个非是表能非之人,后面这个‘所非’是表所非之空,所非的一切法;“尽”是指能非与所非通通没有;没有去哪了呢?大家想一想呀?能非与所非是不是都是我们的本来面目啊?就是一个东西啊!能非就是所非,所非就是能非。以前啊,因为要把这个道理讲明白,所以分出个能非,分出个所非。如果讲第一义谛法,根本就不分能与所,能所不二,就是一个东西;能非也是我们自己,所非也是我们自己啊,还谈什么能非与所非呢?〖旋法归无,斯为第一。〗“旋”就是转的意思。转一切的法“归无”,这一切的法呀也包括虚空啊,大家要明白!“归无”就是指归到第一义谛的空了,说白了就是把有相归无,把无相也归无,最后把要归无的这个念啊也归无,这叫三空真如。离一切相,即一切法!
自古以来,成佛的法华,开悟的楞严!不读《楞严》,不知修心迷悟之关键;不读《法华》,不知如来救世之苦心。
诸位吉祥如意!
阿弥陀佛!
什么是风水屋?
屋子藏风聚气,冬暖夏凉,环境优雅与自然和谐旺人旺财的屋子可称为风水屋。
什么是元学习算法?
对我而言,第一次听到元学习的预述时,是一个极其兴奋的过程:建立不仅能够进行学习,还能学会如何进行学习的机器项目。元学习试图开发出可以根据性能信号做出响应,从而对结构基础层次以及参数空间进行修改的算法,这些算法在新环境中可以利用之前积累的经验。简言之:当未来主义者编织能干的 AI 的梦想时,这些算法是这些梦想必不可少的组成部分。
本文的目的在于将这个问题的高度降低,从我们想得到的、自我修正算法做得到的事情出发,到这个领域现在的发展状况:算法取得的成就、局限性,以及我们离强大的多任务智能有多远。
为什么人们可以做得到我们做得到的事?
具体地讲:在许多强化学习任务中,和人类花费的时间相比,算法需要花费惊人的时间对任务进行学习;在玩 Atari 游戏时,机器需要 83 小时(或 1800 万帧)才能有人类几小时就能有的表现。
来自近期 Rainbow RL 论文的图
这种差异导致机器学习研究人员将问题设计为:人类大脑中针对这项任务使用的工具和能力是什么,以及我们如何用统计和信息理论的方法转化这些工具。针对该问题,元学习研究人员提出了两种主要理论,这两种理论大致与这些工具相关。
学习的先验:人们可以很快地学会新任务是因为我们可以利用在过去的任务中学到的信息,比如物体在空间里移动的直观的物理知识,或者是在游戏中掉血得到的奖励会比较低这样的元知识。
学习的策略:在我们的生活中(也许是从进化时间上讲的),我们收集的不仅是关于这个世界对象级的信息,还生成了一种神经结构,这种神经结构在将输入转化为输出或策略的问题上的效率更高,即使是在新环境中也不例外。
显然,这两个想法并非互相排斥的,在这两个想法间也没有严格的界限:一些与现在的世界交互的硬编码策略可能是基于这个世界的深度先验的,例如(至少就本文而言)这个世界是有因果结构的。也就是说,我认为这个世界上的事情都可以用这两个标签分开,而且可以将这两个标签看作相关轴的极点。
不要丢弃我的(单)样本
在深入探讨元学习之前,了解单样本学习相关领域的一些概念是很有用的。元学习的问题在于「我该如何建立一个可以很快学习新任务的模型」,而单样本学习的问题在于「我该如何建立一个在看过一类的一个样本后,就能学会该如何将这一类分出来的模型」。
让我们从概念上思考一下是什么让单样本学习变得困难。如果我们仅用相关类别的一个样本试着训练一个原始模型,这个模型几乎肯定会过拟合。如果一个模型只看过一幅图,比如数字 3,这个模型就无法理解一张图经过什么样的像素变化,仍然保持 3 的基本特征。例如,如果这个模型只显示了下面这列数字的前三个样本,它怎么会知道第二个 3 是同一类的一个样本呢?理论上讲,在网络学习中,我们想要的类别标签有可能与字母的粗细程度有关吗?对我们而言做出这样的推断这很傻,但是在只有三个样本的情况下,对网络而言能做出这样的推理就很困难了。
有更多样本会有助于解决这一问题,因为我们可以学习一张图中什么样的特征可以定义其主要特征——两个凸的形状,大部分是垂直的方向,以及无关紧要的改变——线的粗细、还有角度。为了成功完成单样本学习,我们不得不激励网络,在没有给出每一个数字间差别的情况下,学习什么样的表征可以将一个数字从其他数字中区别出来。
单样本学习的常用技术是学习一个嵌入空间,在这个空间中计算出两个样本表征间的欧几里德相似性,这能很好地计算出这两个样本是否属于同一类。直观地讲,这需要学习分布中类别间差异的内部维度(在我的样本中,分布在数字中),并学习如何将输入压缩和转换成那些最相关的维度。
我发现记住这个问题是一个很有用的基础,尽管不是学习如何总结存在于类别分布中的碎片化信息和模式,而是学习存在于任务中的类的分布规律,每一类都有自己的内部结构或目标。
如果要从最抽象开始,构造一个神经网络元参数的等级,会有点像这样:
1. 通过使用超参数梯度下降,网络从任务的全部分布中学习到有用的表征。MAML 和 Reptile 是有关于此的直接的好例子,Meta Learning with Shared Hierarchies 是一种有趣的方法,这种方法可以通过主策略的控制学习到清晰的子策略作为表征。
2. 网络学习要优化梯度下降的参数。这些参数就像是学习率、动量以及权重之于自适应学习率算法。我们在此沿着修改学习算法本身的轨道修改参数,但是有局限性。这就是 Learning to Learn By Gradient Descent by Gradient Descent 所做的。是的,这就是这篇文章真正的标题。
3. 一个学习内部优化器的网络,内部优化器本身就是一个网络。也就是说,使用梯度下降更新神经优化器网络参数使得网络在整个项目中获得很好的表现,但是在网络中每个项目从输入数据到输出预测结果的映射都是由网络指导的。这就是 RL2 和 A Simple Neural Attentive Meta Learner 是如何起作用的。
为了使这篇文章更简明,我将主要叙述 1 和 3,以说明这个问题的两个概念性的结局。
其他名称的任务
另一个简短的问题——我保证是最后一个——我希望澄清一个可能会造成困惑的话题。一般而言,在元学习的讨论中,你会看到「任务分布」的提法。你可能会注意到这个概念定义不明,而你注意的是对的。对于一个问题是一个任务还是多个任务中的一个分布,似乎没有明确的标准。例如,我们应该将 ImageNet 视为一个任务——目标识别——还是许多任务——识别狗是一个任务而识别猫是另一个任务呢?为什么将玩 Atari 游戏视为一个任务,而不是将游戏的每一个等级作为一个独立任务的几个任务?
我能得到的有:
「任务」的概念是用已经建立的数据集进行卷积,从而可以自然地将在一个数据集上进行学习认为是单个任务
对于任何给定分布的任务,这些任务之间的不同之处都是非常显著的(例如,每一个学习振幅不同的正弦曲线的任务和每一个在玩不同 Atari 游戏的任务之间的差别)
所以,不仅仅是说「啊,这个方法可以推广到这个任务分配的例子上,所以这是一个很好的指标,这个指标可以在任务中一些任意且不同的分布上表现良好」。从方法角度上讲,这当然不是方法有效的不好的证据,但它确实需要用批判性思维考虑这种网络要表现出多大的灵活性才能在所有任务中都能表现出色。
那些令人费解的动物命名的方法
在 2017 年早些时候,Chelsea Finn 和来自 Berkeley 的团队就有了叫做 MAML(Model Agnostic Meta Learning,与模型无关的元学习)的方法。
如果您有心想要了解一下,请转向本文的「MAML 的种类」部分。
在学习策略和学习先验之间,这种方法更倾向于后者。这种网络的目标在于训练一个模型,给新任务一步梯度更新,就可以很好地归纳该任务。就像是伪代码算法。
1. 初始化网络参数 θ。
2. 在分布任务 T 中选择一些任务 t。从训练集中取出 k 个样本,在当前参数集所在位置执行一步梯度步骤,最终得到一组参数。
3. 用最后一组参数在测试集中测试评估模型性能。
4. 然后,取初始参数θ作为任务 t 测试集性能的梯度。然后根据这一梯度更新参数。回到第一步,使用刚刚更新过的θ作为这一步的初始θ值。
这是在做什么?从抽象层面上讲,这是在寻找参数空间中的一个点,就分布任务中的许多任务而言,这个点是最接近好的泛化点的。你也可以认为这迫使模型在探索参数空间时保留了一些不确定性和谨慎性。简单说,一个认为梯度能完全表示母体分布的网络,可能会进入一个损失特别低的区域,MAML 会做出更多激励行为来找到一个靠近多个峰顶端的区域,这些峰每一个的损失都很低。正是这种谨慎的激励使 MAML 不会像一般通过少量来自新任务的样本训练的模型一样过拟合。
2018 年的早些时候文献中提出了一种叫做 Reptile 的更新方法。正如你可能从它的名字中猜出来的那样——从更早的 MAML 中猜——Reptile 来自 MAML 的预述,但是找到了一种计算循环更新初始化参数的方法,这种方法的计算效率会更高。MAML 明确取出与初始化参数 θ 相关的测试集损失的梯度,Reptile 仅在每项任务中执行了 SGD 更新的几步,然后用更新结束时的权重和初始权重的差异,作为更新初始权重的梯度。
g1 在此表示每个任务只执行一次梯度下降步骤得到的更新后的梯度
这项工作从根本上讲有一些奇怪——这看起来和将所有任务合并为一个任务对模型进行训练没有任何不同。然而,作者提出,由于对每项任务都使用了 SGD 的多个步骤,影响了每个任务的损失函数的第二衍生物。为了做到这一点,他们将更新分为两部分:
1. 任务会得到「联合训练损失」的结果,也就是说,你会得到用合并的任务作为数据集训练出来的结果
2. SGD 小批次梯度都是接近的:也就是说,在通过小批次后,梯度下降的程度很低。
我选择 MAML/Reptile 组作为「学习先验」的代表,因为从理论上讲,这个网络通过对内部表征进行学习,不仅有助于对任务的全部分布进行分类,还可以使表征与参数空间接近,从而使表征得到广泛应用。
为了对这个点进行分类,我们先看一下上图。上图对 MAML 和预训练网络进行比较,这两个网络都用一组由不同相位与振幅组成的正弦曲线回归任务训练。在这个点上,两者针对新的特定任务都进行了「微调」:红色曲线所示。紫色三角代表少数梯度步骤中使用的数据点。与预训练模型相比,MAML 学到了,正弦曲线具有周期性结构:在 K=5 时,它可以在没有观察到这一区域数据的情况下更快地将左边的峰值移到正确的地方。尽管很难判断我们的解释是不是网络的真正机制,但我们可以推断 MAML 在算出两个相关正弦曲线不同之处——相位和振幅——方面做得更好,那么是如何从这些已给数据的表征进行学习的呢?
网络一路向下
对一些人来说,他们的想法是使用已知算法,例如梯度下降,来对全局先验进行学习。但是谁说已经设计出来的算法就是最高效的呢?难道我们不能学到更好的方法吗?
这就是 RL2(通过慢速强化学习进行快速强化学习)所采用的方法。这个模型的基础结构式循环神经网络(专业点讲,是一个 LTSM 网络)。因为 RNN 可以储存状态信息,还可以给出不同输出并将这些输出作为该状态的函数,理论上讲着就有可能学到任意可计算的算法:也就是说它们都具有图灵完全性的潜力。以此为基础,RL2 的作者架构了一个 RNN,每一个用于训练 RNN 的「序列」都是一组具有特定 MDP(Markov Decision Process,马尔科夫决策过程。从这个角度解释,您只需将每次 MDP 看作环境中定义一系列可能行为且通过这些行为产生奖励)的经验集合。接着会在许多序列上训练这个 RNN,像一般的 RNN 一样,这是为了对应多个不同的 MDP,可以对 RNN 的参数进行优化,可以使所有序列或试验中产生的遗憾(regret)较低。遗憾(regret)是一个可以捕获你一组事件中所有奖励的指标,所以除了激励网络在试验结束时得到更好的策略之外,它还可以激励网络更快地进行学习,因此会在低回报政策中更少地使用探索性行为。
图中显示的是运行在多重试验上的 RNN 的内部工作,对应多个不同的 MDP。
在试验中的每一个点,网络都会通过在多个任务和隐藏状态的内容学习权重矩阵参数化函数,隐藏状态的内容是作为数据函数进行更新并充当一类动态参数集合。所以,RNN 学习的是如何更新隐藏状态的权重。然后,在一个给定的任务重,隐藏状态可以捕获关于网络确定性以及时间是用于探索还是利用的信息。作为数据函数,它可以看得到特定任务。从这个意义上讲,RNN 在学习一个可以决定如何能最好地探索空间、还可以更新其最好策略概念的算法,同时使该算法在任务的一组分布上得到很好的效果。该作者对 RL2 的架构和对任务进行渐进优化的算法进行比较,RL2 的表现与其相当。
我们可以应用这种方法吗?
本文只是该领域一个非常简要的介绍,我确定我遗漏了很多想法和概念。如果您需要更多(信息更加丰富)的看法,我高度推荐这篇 Chelsea Finn 的博客,此人也是 MAML 论文的第一作者。
在这几周的过程中,我试着对这篇文章从概念上进行压缩,并试着对这篇文章进行理解,在这一过程中我产生了一系列问题:
这些方法该如何应用于更多样的任务*?这些文章大多是在多样性较低的任务分布中从概念上进行了验证:参数不同的正弦曲线、参数不同的躲避老虎机、不同语言的字符识别。对我而言,在这些任务上做得好不代表在复杂程度不同、模式不同的任务上也可以有很好的表现,例如图像识别、问答和逻辑问题结合的任务。然而,人类的大脑确实从这些高度不同的任务集中形成了先验性,可以在不同的任务中来回传递关于这个世界的信息。我的主要问题在于:这些方法在这些更多样的任务中是否会像宣传的一样,只要你抛出更多单元进行计算就可以吗?或在任务多样性曲线上的一些点是否存在非线性效应,这样在这些多样性较低的任务中起作用的方法在高多样性的任务中就不会起作用了。
这些方法依赖的计算量有多大?*这些文章中的大部分都旨在小而简单的数据集中进行操作的部分原因是,每当你训练一次,这一次就包括一个内部循环,这个内部循环则包含(有效地)用元参数效果相关的数据点训练模型,以及测试,这都是需要耗费相当大时间和计算量的。考虑到近期摩尔定律渐渐失效,在 Google 以外的地方对这些方法进行应用研究的可能性有多大?每个针对困难问题的内部循环迭代可能在 GPU 上运行数百个小时,在哪能有这样的条件呢?
这些方法与寻找能清晰对这个世界的先验进行编码的想法相比又如何呢*?在人类世界中一个价值极高的工具就是语言。从机器学习方面而言,是将高度压缩的信息嵌入我们知道该如何转换概念的空间中,然后我们才可以将这些信息从一个人传递给另一个人。没人可以仅从自己的经验中就提取出这些信息,所以除非我们找出如何做出与学习算法相似的事,否则我怀疑我们是否真的可以通过整合这个世界上的知识建立模型,从而解决问题。
什么是风水画?怎么欣赏风水画?
首先风水是人们趋吉避凶的美好愿望。
而风水画则是一种民俗表现,是利用山水画中美好的寓意来传达自己的美好愿景或弥补一些缺陷,这种用法往往被江湖中风水师所采用。
风水是伪科学和迷信吗?
电影《寻龙诀》胡八一口中总是念叨着那四句“寻龙诀”:寻龙分金看缠山,一重缠是一重关,关门如有八重险,不出阴阳八卦形。同时他手里还总拿个“风水罗盘”,罗盘的指针自己一转,棺椁位置便可得知。
风水罗盘
还别说,中国古代墓葬的选址还真和风水、八卦有点关系。但其中玄妙,远比这虚构出的“寻龙诀”复杂多了。
《地理新书》是北宋唯一官修的阴阳术书,保存至今。其中对于墓葬选址,主要的理论是“五音姓利说”与“昭穆(贯鱼)葬法”。这套理论是如何应用到墓葬选址的呢?我们尽量给大家一个简明的解释:
所谓“五音姓利说”,就是将人的姓氏分成宫、商、角、徵、羽五音,分别对应阴阳的金、木、水、火、土,由此在阴阳地理上便可找到与姓氏相应的宅(冢)地之位向与时日。譬如说北宋的皇帝姓“赵”,属“角”音,对应木行;木主东方,阳气在东,最吉利的墓葬选址便如图:
“角”音吉利葬地
“昭穆(贯鱼)葬法”解决的是如何体现宗族内部各成员的长幼辈分、亲疏关系,换言之,也就是祖庙的排位、祖坟的葬地等应该怎么安排。
“昭穆”语出《周礼·冢人》——“先王葬地居中,以昭穆为左右”,它提出了一种被后世称为“昭穆制度”的宗法次序管理概念。在《地理新书》中,昭穆制度被形象地展示为了一种类似贯穿的鱼串的形式,如下图,其中术语可大略地理解为:“尊穴”是你的墓,“昭穴”是你儿子的墓,“穆穴”是你孙子的墓,他们以如下“贯鱼”的样子安排。
昭穆葬图
注意,上面这个“昭穆图葬”只是一种相对位置关系,而非南北位置关系,最终的葬地还要把“昭穆葬法”和“五音姓利说”结合起来才能推出,需参见下图:
《地理新书》把地域划分为7*7的方格图,每个音的姓氏在图中都有各自不同的最吉、次吉、不吉不凶、次凶和最凶位置,“角”音的最吉、次吉和不吉不凶分别对应图1、2、3中“穴”字的所在。按照“最吉给你,次吉给你儿子,不吉不凶给你孙子”的思路,于是在图4中,南边的“祖穴”就是你的墓,西北的“穴”就是你儿子的墓,东北的“穴”就是你孙子的墓,简化来看就是图5(丙、壬、甲是穴位,1、2、3是祖辈顺序);而这又正好和“昭穆图葬”的要求相合。同理,“商”音姓氏最后推算下来,墓葬选址就如图6。
结合“昭穆葬法”和“五音姓利说”
现实证明,“五音姓利说”与“昭穆(贯鱼)葬法”这套理论是被践行的,北宋皇家的宋陵就基本按照这些理论布局;如有相左之处,大概是陵区的实际情况无法同时满足陵区中众多墓葬的山水、穴位要求,因而只得做了适当变通。
不过问题在于,要知道北宋可是中国历史上格外重视风水堪舆的一个时代,北宋之前之后是否也使用同样甚至类似的墓葬选址理论呢?并不尽然。譬如且不论“五音姓利说”,前述《周礼》所记的“昭穆制度”是否在前朝的现实中被推行?如何推行(与《地理新书》所展现的是否一样)?现存的陵墓又该如何使用这一理论分析、认识?这些都仍是学术界争论不下的问题。
至于什么“前有照,后有靠”(背山面水)之类的“风水”说法,可能也确实在中国古代广泛流传,只是尚未上升至如前述那般高度理论化的层次吧。
宋陵中宋真宗的永定陵
什么是风水镜柜?
镜子五行上属金,应放在五行要金的位置,对家里其它人没影响!
转载请注明出处悦翼世祥风水网 » 玄空九星指的是什么?什么是紫白飞星?“元空”指的是“玄空”吗?