【Machine Learning】从零开端,领会监督学习的法门

“鬼就算可怕,但更可怕的是民心。”


真是日了狗了!张三一面咒骂一边赶路,早就在心头把团结的经营骂了十万八千遍,这一个鬼天气,竟然派自己到荒山野岭考察项目。

目录##\

1. 概念学习 (concept
learning)

2. 变形空间搜索 (Version space
search)

3. 决策树 (Decision tree)


在这么些远离市区几十公里小村庄,荒无人烟,早就被政党废弃了,能迁走的都迁走了,不可能迁走的孤寡老人只可以在村子里等死。偏偏公司希望在这边建一个别墅群,派了张三过来考察地形。遇上下雨的鬼天气,在焦黑的山里根本找不到路。

1. 概念学习

张三望着远处一处灯火,这鬼地点,转了半天反而离灯火越来越远了。

1.1 一种常见的学习模式 — 泛化(generalization)

  • 泛化的概念
  • 从集合的角度:表明式P比说明式Q更泛化,当且仅当P ⊇ Q
  • 例如我们得以将
    排球,篮球,足球 ==(泛化为)==>球类或者运动
  • 机械学习中重点的泛化操作有:
  • 变量替换常量
  • 从合取表明式中去掉一部分规格
  • 对表明式增添一个析取式
  • 用属性的超类替换属性

怎么时候能走出来!张三一阵火大,不顾三七二十一,径直朝着灯火走去。

1.2 通过泛化举行概念学习

  • 何以是覆盖(covering)?
    假如说概念P比概念q更泛化,大家就说p覆盖q

  • 概念空间(concept space)的定义

  • 概念空间是部分地下的概念集合

  • 潜在概念(potential concept / candidate
    concept)是由泛化、特化等求学方法暴发的
    下图就是一个具有如下属性和值的object的概念空间
    Size = {small, large}
    Color = {red, white, blue}
    Shape = {ball, brick, cube}

概念空间

从下至上是一个泛化的长河,比如Obj(X, Y, ball)就足以覆盖Obj(X, red,
ball)和Obj(small, X, ball)等等,这也是透过泛化就行概念学习的反映。


不知底是不是时来运作,一路畅行,竟然离灯火越来越近。

2. 变形空间搜索

Version space search (Mitchell 1978, 1979, 1982) illustrates the
implementation of inductive learning as search through a concept
space.

大概就是从磨练实例可以生成一个概念空间,比如上图。然后再从概念空间中搜索一个能覆盖具备概念的概念。
比如上图的Obj(X, Y, Z)。

近了才发现,这是高峰的一处小庙。

2.1 变形空间(version space)的定义

这鬼地点,竟然还有个小庙。张三心下偷偷欣喜,走进小庙,庙里一堆火,六个人围着坐在火堆旁。张三打了个关照,也坐在火堆旁。

2.2 两种检索概念空间的算法

特殊到一般 (specific to general)
一般到特殊 (general to specific)
候选解排除 (candidate elimination)
  • 这多少个算法倚重于变形空间的定义,在有更多实例时,可以缩短变形空间的深浅。
  • 目标:学习到的概念不仅可以覆盖所有正例,而且能免去拥有的反例。上边讲的Obj(X,
    Y, Z)即便可以覆盖所有正例,但恐怕太泛化了。
  • 避免超泛化(overgeneralization)的方法:
    • 采纳尽可能小得泛化,使之只覆盖正例
    • 用反例排除超泛化了得概念
    反例在防止超泛化中的作用

互动通了姓名,那一个戴眼镜,一脸斯文的是李四,本来是从老家回城里,开车到中途,车坏了,手机没电联系不上救援队,加上天气糟糕又下雨,看见这里有灯火就走了复苏。

2.2.1 特殊到一般
  • 珍贵一个比方集S (即候选概念定义集)
  • 最特异的泛化(马克斯imally specific generalization)
    一个概念c是最特殊的,假设:
    ① 蒙面所有正例,而不掩盖反例
    ② 对于所有其他覆盖正例的定义c’, c ≤ c’

由新鲜到一般的摸索

古铜色肌肤的大丈夫是王五,通过旁边放着的登山包就通晓,这个人肯定是个登山爱好者。他就是在山里跟队友走散了,才赶到了这边。

2.2.2 一般到优良
  • 维护一个只要集G(即候选概念集合)
  • 最相似概念(马克斯(Max)imally general concept)
    一个概念c是最相似的,倘诺:
    ① 遮盖所有正例,而不掩盖反例
    ② 对于自由其他不掩盖反例的概念c’, c ≥ c’

下图的背景为:
size = {large, small}
color = {red, white, blue}
shape = {ball, brick, cube}
因此由第一个反例我们得以特化出:
size不能是small => obj(large, Y, Z)
color不能是red => obj(X, white, Z) 和 obj(X, blue, Z)
shape不能是brick =>obj(X, Y, ball) 和 obj(X, Y, cube)

由一般到特殊的物色

火堆烧的很旺,还有一种若有若无的芬芳,张三觉得有些意外,问道:这是怎么着树,这么香?

2.2.3 候选解排除
  • 候选解排除法综合下面三种格局,双向搜索
  • 保安四个候选概念集合S和G
  • 算法特化G并泛化S直到它们没有在对象概念上

Screenshot at May 04 00-40-53.png

地点特有的松林。一个老态龙钟而且沙哑的响动响起。一张丑陋的脸突然出现,脸上全是伤痕,半个嘴唇依然都已经没有了,白森森的牙齿露在外围映着熊熊点火的灯火,说不出的瘆人。

2.3 评估候选解排除算法

张三被吓得不轻,李四快速笑着安抚:那是此处的庙祝,年轻时被火烧了。

2.3.1 优点
  • 候选解排除算法是增量式的(incremental),所以不同于其他的算法需要在念书从前交付所有磨练实例

张三这才顺了顺呼吸,对着庙祝点头致意。庙祝微笑问好,半个嘴唇扯出一个弧度,看的张三背后发凉。

2.3.2 缺点
  • 像任何搜索问题同样,基于搜索的就学总得处理问题空间的集合问题
  • 候选解排除算法是不可能有噪音(noise)的

王五用树枝拨弄着火苗,说道:好俗气,手机都没电了。要不讲多少个故事解闷吧!

3. 决策树

讲怎么着故事?张三也是个不安分的主。

3.1 什么是决策树?

机器学习中,决策树是一个臆度模型;他代表的是目的属性(property)与对象值(value)之间的一种炫耀关系。树中每个节点意味着某个对象,而每个分开路径则代表的某部可能的属性值,而每个叶结点则对应从根节点到该叶节点所经历的路径所代表的靶子的值。决策树仅有单纯输出,若欲有复数输出,可以创制独立的决策树以处理不同输出。
-来自 Wikipedia

  • 决策树可以分成分类树回归树,分别指向于离散变量和连续变量。
  • 再简单点说就是,建立一棵能把装有磨炼多少开展正确分类的树型结构。

下边举个大概的事例助于精晓。对于臆想个人信用风险(risk)问题,要依照这样有些特性,比如信用历史(credit
history)、当前债务(debt)、抵押(collateral)和收入(income)。下表列出了已知信用风险的个人的样书。

已知信用风险的个体的样本

按照上边的音讯,我们得以得到下边几个不等的决策树。

决策树 A

决策树 B

大家得以窥见,即便两棵决策树都能对给定实例集举办科学分类,可是决策树B要比决策树A总而言之得多。可见,对给定实例集分类所必备的树的尺寸,随测试属性的相继而不同。

鬼故事!

3.2 常见的建立决策树的算法

明天是8月半中元节,鬼门关开,百鬼夜行!庙祝沙哑的声音不合时宜的响起。

3.2.1 ID3

ID3 was developed in 1986 by Ross Quinlan. The algorithm creates a
multiway tree, finding for each node (i.e. in a greedy manner) the
categorical feature that will yield the largest information gain for
categorical targets. Trees are grown to their maximum size and then a
pruning step is usually applied to improve the ability of the tree to
generalise to unseen data.

下文会重点介绍ID3算法

什么年代了!王五哈哈大笑,大家不信。

3.2.2 C4.5

C4.5 is the successor to ID3 and removed the restriction that features
must be categorical by dynamically defining a discrete attribute (based
on numerical variables) that partitions the continuous attribute value
into a discrete set of intervals. C4.5 converts the trained trees (i.e.
the output of the ID3 algorithm) into sets of if-then rules. These
accuracy of each rule is then evaluated to determine the order in which
they should be applied. Pruning is done by removing a rule’s
precondition if the accuracy of the rule improves without it.

率先个故事·张三

3.2.3 C5.0

C5.0 is Quinlan’s latest version release under a proprietary license. It
uses less memory and builds smaller rulesets than C4.5 while being more
accurate.

时辰候放暑假,因为父母上班的涉及,他们都会把自家送到农村曾外祖父家里去玩。

3.2.4 CART

CART (Classification and Regression Trees) is very similar to C4.5, but
it differs in that it supports numerical target variables (regression)
and does not compute rule sets. CART constructs binary trees using the
feature and threshold that yield the largest information gain at each
node.

伯公共在乡下,那时候农村不是很发达,早上还时不时停电。但是对于小儿来说,有玩伴就好了。

3.3 ID3算法详解

本人在一群乡村孩子面前可以吹嘘自己在城市里的见识,说他俩从没见过的汽车,火车和飞机。他们睁着大双目一脸向往。

3.3.1 Occam剃刀(Occam(Occam)’s Razor)

Occam剃刀最早是由逻辑数学家威尔(Will)iam of 奥卡姆(Occam)(Occam)于1324年指出的:

It is vain to do with more what can be done with less. . . . Entities
should not be multiplied beyond necessity.

概括点说,找到可以适合数据的最简便易行的解!

自我成了他们的头,在他们眼里,我好像无所不知。

3.3.2 ID3算法的基本思路

给定操练实例集和能对它们正确分类的一组不同的决策树,大家想要知道哪棵树对前景实例正确分类的可能最大。ID3算法假定可能最大的树是可以覆盖所有训练实例的最简单易行的决策树
注:ID3无法担保每一趟都生成最小的树,只是一种启发式算法

ID3应用自顶向下决策树归纳(Top-Down Decision Tree Induction):

  • 首先确定哪一个性质作为根节点(root node)的测试
  • 采取分类能力最好的(音讯增益最大)属性,作为此时此刻节点(current
    node)的测试
  • 用这一个测试来划分实例集,该属性的每一个也许值都改为一个划分(partition)
  • 对此每一个细分重复上述过程,建立其子树
  • 以至于一个分开中的所有成员在相同连串中,这多少个类型成为树的叶节点(leaf
    node)

注:大家得以把持有可能的决策树集合看成是概念一个变形空间(version
space)。ID3在具有的也许树的空间中实现一种贪婪搜索,对当下树增添一个子树,并继承搜寻,而且不回溯

理所当然,对于儿童而言,抢了风声不是如何好事。

3.3.3 怎么样判断最佳分类属性

ID3算法是由Quinlan首先指出的,该算法是以信息论(Information
Theory)为底蕴的,ID3通过把各类属性当作当前树的根节点来度量音信增益,然后算法采用提供最大音讯增益的特性。

① 新闻增益的心胸标准 – (Entropy)
熵重假诺指信息的紊乱程度,变量的不确定性越大,熵的值也就越大。
变量的不确定性重要能够反映在六个方面:

  • 或许消息的多少
    大概地说,掷硬币有两种可能信息(正面或者反面),掷筛子有六种可能信息(1,2,3,4,5,6),所以正确预测筛子的消息对大家更有价值:掷筛子游戏赢钱更多。
  • 每条音信出现的几率
    简简单单地说,如若我们只要对掷硬币作弊使它正面出现的概率为3/4。那么既然我一度知道猜正面的票房价值为3/4,告诉自己掷硬币结果的消息就不如有关未作弊的硬币的音讯更有价值。(后边讲了切实测算)

综上,给定消息空间M = {m1, m2, …..}以及相应的概率P(mi),熵的公式为:

熵的公式

未作弊和舞弊的熵总结如下:

未作弊的熵值计算

作弊后的熵值统计

为作弊熵值更大,掷硬币的音信更有价值!!!

② 音讯增益(Information Gain)
即便有磨练实例集C。如若大家透过属性P作为当下树的根结点,将把C分成子集{C1,
C2, C3 …..}。再把P当作跟结点完成树所需的音讯的梦想为:

姣好树所需的消息的企盼

就此从依附性P得到的增益通过树的总消息量减去成就树的音讯期望来计算:

信息增益

要么举信用风险的例证,P(low)=5/14,
P(moderate)=3/14,P(high)=6/14。所以总音信量总计如下:

总音信量

一经把收入(income)作为树的根结点,表中的实例被细分为C1 = {1,4,7,11}、C2
= {2,3,12,14}和C3 = {5,6,8,9,10,13}。

决策树的一片段

成就树所需的期望值为:

做到树所需的期望值

最后,gain(income) = 1.531 – 0.564 = 0.967 bits
仿佛的,可以取得:

属性 信息增益(bits)
gain(credit history) 0.266
gain(debt) 0.063
gain(collateral) 0.206

出于收入提供了最大的讯息增益,所以ID3会采纳它当做根结点。

这时候,在自身前边,有个小胖子出了名的胆子大,是这片孩子的头儿。眼看被我抢了局面,这小胖子便约我比哪个人的胆略大。

3.3.4 评价ID3

即使ID3算法暴发简单的决策树(包括根结点,决策结点和叶结点),但这种树对预测未知实例的归类不见得一定有效。

比的法子很简单,农村人这时候死了人都葬在一齐,小胖子约我在天黑了将来去坟地走上一圈,还是能回去的,就是这么些。

3.4 评估决策树

  • 决策树适用于离散型数据,变量的结果是少数集合。
  • 优点
    • 决策树总计复杂度不高,便于使用,高效!
    • 决策树可以处理具有不相干特征的数码。
    • 决策树可以很容易的结构出一多级易于理解的条条框框。
  • 缺点
    • 拍卖缺失数据,坏数据的以及连续型数据的难堪。
    • 大的数据集可能会暴发很大的决策树。
    • 忽视了多少汇总属性之间的涉嫌。
    • 超负荷拟合(涉及到剪枝)

这有什么?我不可能丢了城里孩子的脸,当即承诺下来。

参考文献

  1. Artificial Intelligence,6th
    Edition
  2. 从决策树学习谈到贝叶斯分类算法、EM、HMM
  3. 机械学习经典算法详解及Python实现–决策树(Decision
    Tree)
  4. Scikit-learn
    文档

于是乎等到夜幕低垂,我打先河电便朝着坟地进发。去坟地要透过一间破败的房舍,我原先白天的时候来过,这里没有人。那天经过的时候,忽然看见一个年级与我差不多的小女孩在那里哭。

自我走上前,女孩哭着说,我找不到自我布娃娃了,这下大姨知道了,肯定要打自己的!

作为城里孩子,我立马觉得自家应当像电影里面的奋不顾身一样,帮他找到自己的布娃娃。

我开首帮女孩找布娃娃。然则找了半天一贯未曾意识什么布娃娃,平昔到手电筒的灯光变暗。我大呼不佳,电池没有电了!

出门的时候以为去一趟坟地,所以没有带备用电池。正想跟小女孩说对不起,却听到外祖父在喊我回家。想回头和女孩道别,却发现女孩已经不见了踪影。

莫不是是自个儿找的太认真了?我摸着头,一脸疑惑。

其次天,我气愤的准备在小胖子面前认输。其它的同伴却告诉自己,小胖子病了。

据老人家们说,小胖子这天一到墓地,看见几点黑色的鬼火飞舞,当时就高喊一声晕过去了,直到她老人家没见人,才在墓园找到他。

小胖子从此昏迷,怎么也叫不醒,后来请了村里的道士做了法事才好转过来。

自家之后又去找过相当女孩,但是再也从不见过。

二十年后,我小叔逝世,在老家举行法事。

一天法事完毕,已是天黑,我转着转着就走到了这时的这栋遗弃的房舍。二十年过去了,房子越来越衰败。

突如其来,身后有人拉我的服装,我转头头,一个小女孩在自己身后,怯生生的说,我布娃娃丢了,你能帮我找呢?

自我即刻手脚冰冷,只感觉寒气入骨。这多少个小女孩眼神和二十年前的百般小女孩一般无二,尽管日子这么久已经淡忘了样子,可是这种怯生生的眼神我不会遗忘。

自我愣在这边,女孩突然笑了,说道:我认识你,你怎么帮我找了这么久仍旧不曾找到布娃娃?

自家撒腿就跑,一向跑到有光亮的地点才停下。

其次个故事·李四

这段岁月,我刚买了房。

你们明白,一个人在都市里打拼,买套房子不便于,尽管是二手的,我也认为自己很伟大了。

霎时买房子的时候,我吹毛求疵的直白压价,房东虽然有点不情愿,最终依然允许了。

于是自己就以低于市面房价10%的价位买下了那套房屋。

房屋全体很好,就是卧室有点小,采光差了点,但是大概来说,我曾经很乐意了。

于是交了钱的当晚,我就搬过去了。

住进去的连夜,我就意识了不规则。

夜幕,我刚躺下准备就寝,就听见有打击的声息。

特别声音很轻,不认真听几乎听不见。可是一旦您听到了第一声敲门声,你就会被这么些敲门声所诱惑。

自身被打击声吵得睡不着,于是坐起身,仔细鉴别了一晃动静,听出来敲门声发声的地位较低,可能是哪家的熊孩子认错了门吧!

自家起来,开了灯。走出卧室,走到大门前,这时,声音忽然消失了。

对,真的消失了。我也没听到娃儿上下楼的脚步声,然则声音实在是消灭了。仿佛一直不曾存在过一样。

本人从猫眼里望出去,外面一片漆黑,使劲跺一脚,楼道的声控灯亮起来,依然空无一物。

奇了怪了!我小声嘀咕。没理由啊!刚刚明明听见了声音。

我只能关了灯,又爬上床准备睡眠。

敲门声又响起来了!

本身怒火中烧,心道:哪家的熊孩子,大半夜不睡觉啊!

于是扯着喉咙就是一声吼:何人啊!找死啊!

一嗓子下去,万籁俱寂。整个世界登时安静了!

自我知足的躺下,睡了下来!

敲门声没有了,但是这晚我仍旧睡得不踏实,因为我做了噩梦。

梦里,我依旧在酣睡,然则我能听见有人在砸墙壁,“咚咚咚”不绝于耳。我肉眼睁不开,不知底外面爆发了怎么着,只可以听见动静。

砸墙的响动还伴随着一个小女孩的哭声,女孩边哭边说:放自己出来!

在经受了一夜的煎熬之后,我毕竟醒了。天亮了,却仍然心有余悸,这么些梦太真实了,梦中的声音那么清晰,仿佛就暴发在自家周围一样。

只可以在心中告诉要好实在没什么,洗了个脸就准备上班。

下了楼,我回头望了一眼自己的房间。数了两次楼层,顿时感觉到如坠冰窖,整个人汗毛都快竖起来了。

自身的房子在十八楼,南北朝向,卧室在南部,唯有东方一个小窗户采光。不过,我明日看到的房舍,南边显明有一扇开着的窗户。

比方这扇窗户是开着的,那么自己的卧室相对不容许采光这么差。想到这里,我哆哆嗦嗦拿入手机报了警。

果然,卧室被人砌上了一个隔间,而内部,正是一具小女孩的残骸。

其两个故事·王五

有一段日子,我家里厨房的水龙头出了点毛病,通常在半夜滴水。

起初我认为,肯定是水管年久失修了,于是屁颠儿跑到五金市场买了一堆工具,把厨房的装有水管都更新了。

本人乐不可支的看着友好的大手笔,心想,这下应该不会半夜滴水了吧!

只是,就在这天半夜,我要么听到了滴水的动静。

还有鬼了!我出发,开灯。在此之前有心上人打趣,是不是你惹上了外界淘气的小鬼,回家逗你玩呢?

本身胆子大,喜欢冒险,一向就不倚重什么鬼神之说。

气愤的跑到厨房,打开灯,水龙头果然在滴水。

没理由啊!我显著在上床此前检查过的,水龙头我已经关好了。

莫不是自己的确忘记关了?我有些狐疑的摸了摸自己的后脑勺。

只得又关好水龙头,重新检讨了一些遍,才关了厨房的灯,然后爬上床睡觉。

睡到迷迷糊糊,又隐约听到了滴水的动静,仔细确认了解后,打开灯,打着哈欠来到了厨房。

果然,水龙头又在滴水了。

特么的!我当下就醒来了,心道,还真特么见鬼了。

这次,我要么关了水龙头,重新检查停止之后,我就关了灯。

不过本次自己从不睡觉,我只是关所有的灯,然后躲在厨房外面,只等水龙头滴水的声息响起,顿时冲进去看看到底。

果不其然,大概十五分钟过后,水龙头滴水的声音就响了起来。

本人一个健步冲进厨房,开灯。

一个白影一闪而过,水龙头滴着水。

哪些动静?我环顾四周,空无一人,也并未猫什么的小动物。

本人有个小动作,思考的时候喜欢摸后脑勺。

本次也不例外,不过,当自身摸到后脑勺的时候,立即来到背后发凉,手上进一步冰冷一片,仿佛摸到了一块冰块,即刻倍感阵阵毛骨悚然。

本身一把吸引,朝着水池一扔,一个白衣小女孩被自己狠狠的砸在水池,女孩小脸煞白,冲我低声嘶吼。我气不打一处来,一巴掌挥过去,打在小女孩脸上,小女孩的头顿时飞了出来,像篮球一样在厨房滚来滚去,最后哭着没有了。

而自己,好像突然精晓了什么样,夺门而出,在网吧待了一个夜晚。

第多少个故事·庙祝

王五的故事讲完未来,得意洋洋的说:即便这天夜里吓了个够呛,可是本人后来就真正就是鬼了。

庙祝在边缘冷笑一声,哑着嗓门说道:你们真的就是鬼吗?

王五大大咧咧,抢着回答:老子一巴掌把小鬼的头都打掉了,怕个屁啊!

庙祝丑陋的面颊抽搐了一晃,说道:我有个故事,你们要听吧?

一个降雨的早上,他一个人开车回城里,路上,他又载了一个喜爱户外运动的丈夫和此外一个失去了最终班车的上班族。

这天雨下得很大,雨刷不停的挥舞,视线依然很不清楚,所以他开车开得很慢。

黑马,他看见白影一闪,车子好像撞上了什么东西。

新任一看,一个小女孩躺在车下,手里拿着一个布娃娃。

她立时任什么人就懵了,完全不晓得如何是好。

女孩躺在马路上,尚有一息尚存,不过这里离城里还有几十海里,送去诊所肯定来不及了。假诺见死不救,这些小女孩的遗骸肯定会被察觉,自己刚刚升职,前途一片光明。

中途上车的户外运动男突然下车,说了句,交给自己!

下一场拿出登山铲,对着女孩一阵狂拍。

听着!上班族说:这里没有监督,没有视频头,先天下了这么大的雨,什么痕迹也不会留给。没人会精通这里爆发了什么业务,唯有我们两个人领会。

你想干嘛!他心灵生出阵阵寒意,这一个戴着镜子的上班族,冷静的略微分外。

你开车撞死人,他补上了最后一刀,我承担处理尸体。上班族面无表情,进了城,我们就竞相不认识了。

小女孩的遗骸被装进了塑料袋,放进后备箱。

进了城,上班族带走了遗体,户外运动男挥手道别,他开着车,回到了自己的家。

张三、李四和王五六个人面面相觑,不可思议的望着对方,又反过来头望着庙祝。

王五拿出登山铲,冷冷说道:你是怎么精通的?

若要人不知,除非己莫为。庙祝眼里闪过一丝精光。

领会了又能怎么,即使你是鬼,老子照样砍了你!王五操着登山铲站起来,又无力的倒下。

张三和李四也发觉了异常,浑身无力。

这里的松林,发出的香气其实是迷药。庙祝冷冷的说。

庙祝眼里滑过泪水,喃喃的说:女儿,看自己为你报仇!

用尽!庙外面一声怒吼犹如平地惊雷。

一个非凡高大的人影出现在庙里,这人估量有两米以上的身高,头发脏兮兮像是几年从未洗过,竟然长着一双牛角,浑身漆黑。

你是何人?庙祝望着来人,心里很不扎实。

自家是什么人?来人咧嘴一笑,笑得比哭还难看。大手一扔,几颗人头咕噜噜滚到庙祝脚下。

庙祝定睛一看,三颗人头,不正是张三李四王五的呢?

您你你……庙祝突然紧张到不会讲话。

您咋样你!那人粗着喉咙说道:他们已经死了,张三大雨路滑摔死了,李四开车冲下悬崖死了,王五爬山掉下来摔了个稀巴烂。我追着他俩的灵魂追了半天才把她们都赶来那里。

本身要算账!庙祝恶狠狠的说。

报你个大头鬼!你十年前为了救你姑娘就被大火烧死了。一块跟自身回去吧!我赶时间。

赶时间?

是呀!这世界上,善恶终有报,不是不报,时候未到!这人顿了顿,咬牙切齿:我前天要去拿马蓉和宋喆这对奸夫淫妇的魂魄。

妈蛋,竟然欺负我家婴孩!鬼差狠狠地说:看我不拿他们下十八层地狱!

有人问我何以不写宝宝,其实这是宝贝的家当,我只是一介隔着婴孩光环围观王宝强的网友,我喷马宋五个人也就是“婊子”一类的车轱辘话,其他的本人又有哪些身份去说呢?好啊,最终祝我们中元节喜气洋洋。