LOFTER for ipad —— 让兴趣,更有趣

点击下载 关闭

LOFTER-网易轻博

nlp

1594浏览    168参与
端午节的粽子

NLP中SRL论文写作吐槽

(BGM:cash cash - overtime,vicetone remix edit,干活听很带感,歌名和EP封面都很应景,非常应景)

不知道该说啥好,最近有点忙……就说说目前让我抓狂的NLP论文,也算是一个微小的经验记录吧

在做基于maximum entropy算法的semantic role labeling,拿propbank做语料库,基本方针追随CoNLL04和05的数据处理方法和格式,期间读了多篇论文,有开创性的教学性的,也有实操程度高的实验性论文(然而没有一篇是附上github链接的,甚至一篇都没有源码片段,一篇都没,学术啊🤪)

大多数论文的主要侧重点在于花式改feature...

(BGM:cash cash - overtime,vicetone remix edit,干活听很带感,歌名和EP封面都很应景,非常应景)

不知道该说啥好,最近有点忙……就说说目前让我抓狂的NLP论文,也算是一个微小的经验记录吧

在做基于maximum entropy算法的semantic role labeling,拿propbank做语料库,基本方针追随CoNLL04和05的数据处理方法和格式,期间读了多篇论文,有开创性的教学性的,也有实操程度高的实验性论文(然而没有一篇是附上github链接的,甚至一篇都没有源码片段,一篇都没,学术啊🤪)

大多数论文的主要侧重点在于花式改feature,机器学习你懂得,是不是看起来很简单?似乎难度就集中在如何拆解语义树对吧……然而人生怎会如此简单,呵呵……

可能是我比较菜吧

我看了看,大部分人用的都是zhang le博士的maxent toolkit for python and C++,这可好极了!让我用C++写点儿别的还行,ml是绝对不可能的……这个工具包,根据我目前浅薄的观察,是把一个C++上的maxent API绑到了python上,对于我这种python母语者应该是很友好的对吧……

然而,虽然网上都说zhang le博士的教程很详细,但是我这个菜鸡发现如果你一开始没有抓住zhang博士想要传达的精髓,就很容易被带到github repo里的tagger example那里然后不明不白的读了几百行代码,在这里我用人话说一下,那个教程的使用部分一定细读!然后原理先别看(就好像你有时间看一样),case study也最好跳过(就这东西把我弄到example源码那里的……)!直接看API和API前面那一章,原理就初步清楚了!

最让我难受的是,zhang le博士的example源码的注释时隐时现的,readme也没怎么解释每个文件之间的作用和关系,全是自己观察出来的,很难受……关键是看完了还没啥用,巨量难受了……

这件事告诉了我什么:1.以后的我的注释一定好好写!写人话!写简单人话!2. 以后我的readme一定好好写!写人话!写简单人话!3. 每个程序自己保留一个开发文档,具体介绍每个设计的数据结构的构造和作用!写人话!写简单人话!4. 我以后如果发达了,写tutorial的时候一定把菜鸡和傻瓜(都是我)作为我的目标读者,坚决不买弄术语!!

PS,我看很多人都在用maxent的时候引用了the L-BFGS parameter estimation algorithm with Gaussian Prior smoothing这个处理方法,天真的我居然还真的去瞄了一眼这篇99年的老论文,呵呵……结果toolkit tutorial读到最后发现是默认处理方法,只能希望原来的那几篇论文不是跟风引用吧🤪


吐槽完了,感觉思路像溜冰,滑到哪儿是哪儿,行吧


(最后让我用腐朽的声带呐喊一句:shell命令nb!!!)

端午节的粽子

NLP入门傻瓜笔记

去度假了,留个坑,激励自己在度假期间把笔记整理出来

不过真的好忙啊,度假还要学习,疯狂学习……

度个pi假,无假可度

去度假了,留个坑,激励自己在度假期间把笔记整理出来

不过真的好忙啊,度假还要学习,疯狂学习……

度个pi假,无假可度

桃之夭夭
桃之夭夭
雾雨人偶店

hanLP学习笔记总结

为时两周的学习,总算是把hanlp和NLP的感知机部分基本概念和用法吃透了,在这里记录一下。

首先项目地址:https://github.com/hankcs/HanLP

参考文献:邓知龙 《基于感知器算法的高效中文分词与词性标注系统设计与实现》


  • 文献简述:

该文献并不是针对感知机的介绍,主要的NLP方法还是基于统计的,在该文中还加上的外挂词典以自适应。感知机只是做了锦上添花的事情,也就是传说中的在线学习和并行计算


对文献的第一遍解读之后画了一个架构图,现在看看虽然有一部分是错的但是觉得这种读两遍就有新见解的过程还挺有趣,还是记录一下。


ps:基于统计...

为时两周的学习,总算是把hanlp和NLP的感知机部分基本概念和用法吃透了,在这里记录一下。

首先项目地址:https://github.com/hankcs/HanLP

参考文献:邓知龙 《基于感知器算法的高效中文分词与词性标注系统设计与实现》


  • 文献简述:

该文献并不是针对感知机的介绍,主要的NLP方法还是基于统计的,在该文中还加上的外挂词典以自适应。感知机只是做了锦上添花的事情,也就是传说中的在线学习和并行计算


对文献的第一遍解读之后画了一个架构图,现在看看虽然有一部分是错的但是觉得这种读两遍就有新见解的过程还挺有趣,还是记录一下。


ps:基于统计的方法和词典应该在感知机模型之外


  • 多领域分词及识别:

看了所有hanlp的issue,总结如下。

难点:大规模语料获取与标注

小规模:自定义词典/在线学习

//用户词典无法记忆

大规模1:Stacked Learning//效果不佳,语料重合度高时可用

大规模2:感知机训练。

初始语料→初始模型

               ↓

          新增语料→增量模型

//效果不佳,不如直接训练增量语料,语料重合度高时可用

//可以配合词典、增加语料规模等提高准确率

//训练语料需有标注

大规模3:标注模型对行业语料进行分词、标注,手动修正关键词

//标注集不同,无法在线学习。

里面所说的效果不佳是指准确率没有提升很多,因为本身不用感知机的分词就已经有95%左右的准确率了。


  • 感知机

目标:超平面线性可分(二分类

损失函数:所有错误点到超平面的总距离,最小为0

距离:点到平面的距离 推广到超平面

//损失函数的参数加上梯度上升的反方向,于是就梯度下降了。

//由于损失函数中仅包含错误点,所以有在线学习功能?

收敛:误分类次数收敛

BMES4分类问题:开头、中间、结尾、独立

朴素感知机:损失函数为错误点的个数,无法在线学习,无法求导下降

平均感知机:n个模型的平均权值

语言模型:HMM序列特征标注+viterbi搜索/解码

特征:字符序列为x,标注序列为y。


  • hanlp训练全过程:

不多废话,上图


总得来说就是分为分词、词性标注、实体提取三条任务线,三条线可以分别进行,也可以一起进行之后用一个感知机的analyze来识别。

值得注意的是在线学习如果想要保存结果,必须在一个基础模型上进行序列化,这也就是在线学习的优点所在,在没有基础模型的时候,在线学习是无法保存的,只能在内存中运行。


一点笔记:

NERTrainerTest.java

输入:语料格式txt文本

输出:模型文件.bin

Demo:PLA

输入:1-3个模型文件.bin

输出:分词+标注+实体命名识别

PerceptronTrainer.java是训练基类

其中train函数的输入即为模型训练参数

分词训练CWRTrainer中

//无预处理的语料除了as均可通过

//相同词性的实体可能会被之前的人名、地名、机构名所覆盖,新建实体时需要与人、地、机构相当数量的标注or注释掉对应的人、地、机构

//感知机不可能在线学习标注集之外的标签

//PerceptronLexicalAnalyzer支持自定义词典



  • 训练功能设计:

后端大佬暂时不认同我的方法,那我就先自己记下来,以后要用也好想起来。

1、输入文档

2、自动分词及识别

3、用户修改

3.1增加为词典

3.2分词在线学习(learn到bin文件)

3.3词性标注在线学习(learn到bin文件)

3.4新实体重新训练

这个过程比较麻烦下面详细说。

首先要明确,一次在线学习只能为一种功能学习,也就是分词、词性标注、实体提取必须要分次进行。如果用户想一次进行多种学习,必须要限制掉。

其次,在线学习的实体提取功能,是无法把用户想要新加入的实体学习到的,新实体学习训练必须从文本开始重新训练,如果只做在线学习,那么只能在当前文本中学习原模型中已有的实体。

所以,必须在本地or服务器上存一个实体语料文档,并且每次有新实体待提取的时候,就把当前文档续在语料文档的后面,然后整体进行重新训练,并加入所需新实体的标注。当然这个过程会越来越长,但是准确度也会越来越高。

最后,训练语料文本必须是按照格式标注好的才能进训练机,所以基础语料可以先放一个开源语料文件,后续添加的时候,原文是标注好的,新文本是当前分词功能大致分好,以及用户手动标注的,合在一起之后也能保证语料的格式。






IComac

机器学习-基于TextBlob进行简单的情感分析

Tweet情感分析器(简单分类)


# -*- coding:utf-8 -*-

import re

import random

from textblob.classifiers import NaiveBayesClassifier

from textblob import TextBlob

from nltk.corpus import movie_reviews

train = [

    ('I love this sandwich.', 'pos'),...


Tweet情感分析器(简单分类)


# -*- coding:utf-8 -*-

import re

import random

from textblob.classifiers import NaiveBayesClassifier

from textblob import TextBlob

from nltk.corpus import movie_reviews

train = [

    ('I love this sandwich.', 'pos'),

    ('This is an amazing place!', 'pos'),

    ('I feel very good about these beers.', 'pos'),

    ('This is my best work.', 'pos'),

    ('What an awesome view', 'pos'),

    ('I do not like this restaurant', 'neg'),

    ('I am tired of this stuff.', 'neg'),

    ("I can't deal with this", 'neg'),

    ('He is my sworn enemy!', 'neg'),

    ('My boss is horrible.', 'neg')

]

test = [

    ('The beer was good.', 'pos'),

    ('I do not enjoy my job', 'neg'),

    ("I ain't feeling dandy today.", 'neg'),

    ("I feel amazing!", 'pos'),

    ('Gary is a friend of mine.', 'pos'),

    ("I can't believe I'm doing this.", 'neg')

]

#创建一个新的分类器

cl = NaiveBayesClassifier(train)


#使用TextBlob对象。 您可以将分类器传递到TextBlob的构造函数中

blob = TextBlob("The beer was amazing. "

                "But the hangover was horrible. My boss was not happy.",

                classifier=cl)

for sentence in blob.sentences:

    print(sentence)

    print(sentence.classify())


#检查测试集的准确性

print cl.accuracy(test)


cl.show_informative_features(5)


#从NLTK添加更多数据

reviews = [(list(movie_reviews.words(fileid)), category)

              for category in movie_reviews.categories()

              for fileid in movie_reviews.fileids(category)]

new_train, new_test = reviews[0:100], reviews[101:200]

cl.update(new_train)

print cl.accuracy(test + new_test)


参考:https://blog.csdn.net/baihuaxiu123/article/details/62057062

IComac

NLP词向量-基于主题模型的特征-PLSA模型

现实中我们一篇文档可能存在多个主题。

思想:首先根据大量的一只文档-词信息p(wj|di),训练出文档-主题p(zk|di)和主题-词项p(wj|zk),

这样我们就可以得到文档中每个词的生成概率p(di,wj) =p(di)p(wj|di),其中p(di)是之前我们就可以计算出来的,根据每个词的生成概率去生成文档

步骤:

            (1):按概率p(di)从多篇文档中选择一篇文档di...


现实中我们一篇文档可能存在多个主题。

思想:首先根据大量的一只文档-词信息p(wj|di),训练出文档-主题p(zk|di)和主题-词项p(wj|zk),

这样我们就可以得到文档中每个词的生成概率p(di,wj) =p(di)p(wj|di),其中p(di)是之前我们就可以计算出来的,根据每个词的生成概率去生成文档

步骤:

            (1):按概率p(di)从多篇文档中选择一篇文档di

               (2):根据选定的文档di去确定文档的主题分布

               (3):从主题分布中按照概率p(zk|di)选择一个隐含的主题类别zk

               (4):选定zk后,确定主题下的词分布

               (5):从词分布中按照概率p(wj|zk)选择一个词wj

具体例子参考

https://blog.csdn.net/pipisorry/article/details/42560693

IComac

NLP词向量-基于文本/自然语言处理的特征

还可以构建一些额外的基于文本的的特征,这些特征有时有助于提升文本分类模型性能。一些例子如下:

  1. 文档的词计数—文档中词总数

  2. 文档的字符计数—文档中字符总数

  3. 文档的平均词密度—文档中词的平均长度

  4. 整篇文章中的标点符号计数—文档中标点符号的总数

  5. 整篇文章中大写词计数—文档中大写词的总数

  6. 整篇文章中标题词计数—文档中合适的大小写(标题)词总数

  7. 词性标签的频率分布: 

  • 名词计数

  • 动词计数

  • 形容词计数

  • 副词计数

  • 代词计数

这些特征是实验性质的,只能根据特定的情况使用。

trainDF['char_count'] = trainDF...

还可以构建一些额外的基于文本的的特征,这些特征有时有助于提升文本分类模型性能。一些例子如下:

  1. 文档的词计数—文档中词总数

  2. 文档的字符计数—文档中字符总数

  3. 文档的平均词密度—文档中词的平均长度

  4. 整篇文章中的标点符号计数—文档中标点符号的总数

  5. 整篇文章中大写词计数—文档中大写词的总数

  6. 整篇文章中标题词计数—文档中合适的大小写(标题)词总数

  7. 词性标签的频率分布: 

  • 名词计数

  • 动词计数

  • 形容词计数

  • 副词计数

  • 代词计数

这些特征是实验性质的,只能根据特定的情况使用。

trainDF['char_count'] = trainDF['text'].apply(len)


trainDF['word_count'] = trainDF['text'].apply(lambda x: len(x.split()))


trainDF['word_density'] = trainDF['char_count'] / (trainDF['word_count']+1)


trainDF['punctuation_count'] = trainDF['text'].apply(lambda x: len("".join(_ for _ in xif _ in string.punctuation))) 


trainDF['title_word_count'] = trainDF['text'].apply(lambda x: len([wrd for wrd in x.split() if wrd.istitle()]))


trainDF['upper_case_word_count'] = trainDF['text'].apply(lambda x: len([wrd for wrd in x.split() if wrd.isupper()]))

pos_family = {
    'noun' : ['NN','NNS','NNP','NNPS'],
    'pron' : ['PRP','PRP$','WP','WP$'],
    'verb' : ['VB','VBD','VBG','VBN','VBP','VBZ'],
    'adj' :  ['JJ','JJR','JJS'],
    'adv' : ['RB','RBR','RBS','WRB']
}

# function to check and get the part of speech tag count of a words in a given sentence
def    check_pos_tag(x, flag):
        cnt = 0
        try:
                wiki = textblob.TextBlob(x)
                for tup in wiki.tags:
                        ppo = list(tup)[1]
                        if ppo in pos_family[flag]:
                                cnt += 1
        except:
                pass
        return cnt

trainDF['noun_count'] = trainDF['text'].apply(lambda x: check_pos_tag(x, 'noun'))


trainDF['verb_count'] = trainDF['text'].apply(lambda x: check_pos_tag(x, 'verb'))


trainDF['adj_count'] = trainDF['text'].apply(lambda x: check_pos_tag(x, 'adj'))


trainDF['adv_count'] = trainDF['text'].apply(lambda x: check_pos_tag(x, 'adv'))


trainDF['pron_count'] = trainDF['text'].apply(lambda x: check_pos_tag(x, 'pron'))


IComac

python 文本处理工具-TextBlob

TextBlob是一个用Python编写的开源的文本处理库。它可以用来执行很多自然语言处理的任务,比如,词性标注,名词性成分提取,情感分析,文本翻译,等等。

基本功能

  • Noun phrase extraction                         短语提取       ...

TextBlob是一个用Python编写的开源的文本处理库。它可以用来执行很多自然语言处理的任务,比如,词性标注,名词性成分提取,情感分析,文本翻译,等等。

基本功能

  • Noun phrase extraction                         短语提取           

  • Part-of-speech tagging                            词汇标注

  • Sentiment analysis     情感分析

  • Classification (Naive Bayes, Decision Tree)          分类

  • Language translation and detection powered by Google Translate   语言翻译和检查(谷歌翻译支持)

  • Tokenization (splitting text into words and sentences)

  • Word and phrase frequencies   词、短语频率

  • Parsing                语法分析

  • n-grams               N元标注

  • Word inflection (pluralization and singularization) and lemmatization

  • Spelling correction     拼写准确性

  • Add new models or languages through extensions       添加新模型或语言通过表达

  • WordNet integration       WordNet整合

具体操作参考

https://blog.csdn.net/qq_22930277/article/details/79260770

IComac

NLP词向量-Work2Vect-Skip Gram

skip-gram模型的输入是一个单词wI,它的输出是wI的上下文wO,1,...,wO,C,上下文的窗口大小为C。举个例子,这里有个句子“I drive my car to the store”。我们如果把”car”作为训练输入数据,单词组{“I”, “drive”, “my”, “to”, “the”, “store”}就是输出。所有这些单词,我们会进行one-hot编码。skip-gram模型图如下所示: 


前向传播

接下来我们来看下skip-gram神经网络模型,skip-gram的神经网络模型是从前馈神经网络模型改进...

skip-gram模型的输入是一个单词wI,它的输出是wI的上下文wO,1,...,wO,C,上下文的窗口大小为C。举个例子,这里有个句子“I drive my car to the store”。我们如果把”car”作为训练输入数据,单词组{“I”, “drive”, “my”, “to”, “the”, “store”}就是输出。所有这些单词,我们会进行one-hot编码。skip-gram模型图如下所示: 

前向传播

接下来我们来看下skip-gram神经网络模型,skip-gram的神经网络模型是从前馈神经网络模型改进而来,说白了就是在前馈神经网络模型的基础上,通过一些技巧使得模型更有效。我们先上图,看一波skip-gram的神经网络模型:

在上图中,输入向量x代表某个单词的one-hot编码,对应的输出向量{y1,…,yC}。输入层与隐藏层之间的权重矩阵W的第i行代表词汇表中第i个单词的权重。接下来重点来了:这个权重矩阵W就是我们需要学习的目标(同W′),因为这个权重矩阵包含了词汇表中所有单词的权重信息。上述模型中,每个输出单词向量也有个N×V维的输出向量W′。最后模型还有N个结点的隐藏层,我们可以发现隐藏层节点hi的输入就是输入层输入的加权求和。因此由于输入向量x是one-hot编码,那么只有向量中的非零元素才能对隐藏层产生输入。因此对于输入向量x其中xk=1并且xk′=0,k≠k′。所以隐藏层的输出只与权重矩阵第k行相关,从数学上证明如下: 




参考

https://blog.csdn.net/u010665216/article/details/78721354?locationNum=7&fps=1

IComac

NLP词向量-Work2Vect-COBW

COBW-连续词袋

根据上下文预测目标单词,我们需要极大化这个目标单词的出现概率。 

假设词表大小为V,词向量维度为N,上下文单词为x1,x2, …, xc,定义上下文窗口大小为c,对应的目标单词为y,我们将x跟y都表示成one hot形式。这里涉及到两个矩阵参数,W是词向量矩阵,每一行都是某个词的词向量v,W’可以看做是一个辅助矩阵,每一列可以看做是某个词对应的相关向量v’。

前向过程:

x->hidden:对于每个xi,取出对应的词向量vi,再对这些词向量取平均作为hidden vector,相当于通过简单粗暴的叠加,得到这些词语的语义向量。

h->...

COBW-连续词袋

根据上下文预测目标单词,我们需要极大化这个目标单词的出现概率。 

假设词表大小为V,词向量维度为N,上下文单词为x1,x2, …, xc,定义上下文窗口大小为c,对应的目标单词为y,我们将x跟y都表示成one hot形式。这里涉及到两个矩阵参数,W是词向量矩阵,每一行都是某个词的词向量v,W’可以看做是一个辅助矩阵,每一列可以看做是某个词对应的相关向量v’。

前向过程:

x->hidden:对于每个xi,取出对应的词向量vi,再对这些词向量取平均作为hidden vector,相当于通过简单粗暴的叠加,得到这些词语的语义向量。

h->y:将h乘以W’得到一个维度为V的向量u,进行softmax归一化得到概率向量,取概率最大的作为预测单词。

后向过程:

我们需要极大化目标单词的出现概率p(y | x1, x2, … , xc),也就是极小化负对数似然函数。 

我们需要更新两个矩阵参数特点 
  1. 无隐层 -这些词向量取平均作为hidden vector
  2. 使用双向上下文窗口 
  3. 上下文词序无关 
  4. 输入层直接使用低维稠密表示 
  5. 投影层简化为求和(研究人员尝试过求平均),W和W’,先根据loss对参数求梯度,再使用梯度下降法更新参数。

参考

https://blog.csdn.net/jcsyl_mshot/article/details/80672118



IComac

NLP词向量-Work2Vect

在NLP中,传统算法通常使用one-hot形式表示一个词,存在以下问题:

1)维度爆炸,词表通常会非常大,导致词向量维度也会非常大。

2)损失语义信息,one hot随机给每个词语进行编号映射,无法表示词语之间的关系。

所以word embeding的优势如下:

1)将词语映射成一个固定维度的向量,节省空间。

2)词向量可能会具备一定的语义信息,将相似的词语放到相近的向量空间(比如香蕉和苹果都是属于水果,苹果又会涉及到歧义问题),可以学习到词语之间的关系(比如经典的 男人-女人=国王-王后)。

2.训练模式

我们通常是通过将词向量用于某些任务中,用这些任务的衡量指标去衡...

在NLP中,传统算法通常使用one-hot形式表示一个词,存在以下问题:

1)维度爆炸,词表通常会非常大,导致词向量维度也会非常大。

2)损失语义信息,one hot随机给每个词语进行编号映射,无法表示词语之间的关系。

所以word embeding的优势如下:

1)将词语映射成一个固定维度的向量,节省空间。

2)词向量可能会具备一定的语义信息,将相似的词语放到相近的向量空间(比如香蕉和苹果都是属于水果,苹果又会涉及到歧义问题),可以学习到词语之间的关系(比如经典的 男人-女人=国王-王后)。

2.训练模式

我们通常是通过将词向量用于某些任务中,用这些任务的衡量指标去衡量模型结果。

那么反过来,如果我们想要训练词向量,可以先去训练一个语言模型,然后将模型中对应的参数,作为词向量。从任务形式上看,我们是在训练语言模型,而实际上我们最终的目标是想得到词向量,我们更关心的是这个词向量合不合理。

Word2vec根据上下文之间的出现关系去训练词向量,有两种训练模式Skip GramCBOW(constinuous bags of words),其中Skip Gram根据目标单词预测上下文,CBOW根据上下文预测目标单词,最后使用模型的部分参数作为词向量。

AutoEncoder也可以用于训练词向量,先将one hot映射成一个hidden state,再映射回原来的维度,令输入等于输出,取中间的hidden vector作为词向量,在不损耗原表达能力的前提下压缩向量维度,得到一个压缩的向量表达形式


IComac

NLP词向量-NNLM

NNLM - Neural Network language Model

核心思想 : 用一个固定大小的窗口从后向前滑动,遍历整个语料库求和,预测时,用同样大小的窗口进行预测,做最大似然后作出决定。

步骤如下:

  1. 定义一个矩阵C,作为从One-hot到dense的Projection

  2. 将window的dense词向量做简单的concate,送入隐层

  3. 对隐层进行Softmax分类,传递导数进行更新

  4. 然后将中间隐层的结果(算是副产品)作为词的词向量

NNLM - Neural Network language Model

核心思想 : 用一个固定大小的窗口从后向前滑动,遍历整个语料库求和,预测时,用同样大小的窗口进行预测,做最大似然后作出决定。

步骤如下:

  1. 定义一个矩阵C,作为从One-hot到dense的Projection

  2. 将window的dense词向量做简单的concate,送入隐层

  3. 对隐层进行Softmax分类,传递导数进行更新

  4. 然后将中间隐层的结果(算是副产品)作为词的词向量

IComac

NLP词向量 - Glove

Glove:基于共现矩阵的词向量学习

缺点在于当辞典变大时,也会出现维度灾难的问题,也会出现Sparse的问题

奇异值分解与特征值分解其实是差不多的,不过SVD可以分解mxn,而特征值分解只能分解mxm


Glove:基于共现矩阵的词向量学习

缺点在于当辞典变大时,也会出现维度灾难的问题,也会出现Sparse的问题

奇异值分解与特征值分解其实是差不多的,不过SVD可以分解mxn,而特征值分解只能分解mxm


七七老板
这次学习回来的成人礼也是我的能...

这次学习回来的成人礼
也是我的能量圈,哈哈
身边的人都说钻戒是要男朋友买的……
为什么呢?
为什么我就不能自己给自己买一呢!😁😁😁😁

这次学习回来的成人礼
也是我的能量圈,哈哈
身边的人都说钻戒是要男朋友买的……
为什么呢?
为什么我就不能自己给自己买一呢!😁😁😁😁

七七老板
再一次学习进修,少了之前的唠叨...

再一次学习进修,少了之前的唠叨,多了现在的改变,和成长,感悟………
感谢,在这样的年纪,接受这样的知识教育,彻底改变了自己灰暗的生活。
感谢老师,感谢nlp!

再一次学习进修,少了之前的唠叨,多了现在的改变,和成长,感悟………
感谢,在这样的年纪,接受这样的知识教育,彻底改变了自己灰暗的生活。
感谢老师,感谢nlp!

linn

NLP课
不同语言的人对于世界的感受也是不一样的

我们对世界的感受都是以语言作为形式

当你的一种情感没办法用已知的语言表述 另一种情感可以用语言来表达 那么能用语言来表示的那种情感在人的心里肯定会占有大得多的地位置

也就是说 语言实在地影响了人的思维方式

萨丕尔沃尔夫假设

NLP课
不同语言的人对于世界的感受也是不一样的

我们对世界的感受都是以语言作为形式

当你的一种情感没办法用已知的语言表述 另一种情感可以用语言来表达 那么能用语言来表示的那种情感在人的心里肯定会占有大得多的地位置

也就是说 语言实在地影响了人的思维方式

萨丕尔沃尔夫假设

黄老师读书
【免费】 品茶 听书 学管理...

【免费】

品茶

听书

学管理

跟黄志伟老师一起学习NLP技巧

http://www.ximalaya.com/40477855/album/3639012


【免费】

品茶

听书

学管理

跟黄志伟老师一起学习NLP技巧

http://www.ximalaya.com/40477855/album/3639012



孤尘

最近看的书:生活整理术与神经语言程序学

  毕业后,看书从原来偏于形而上的,到现在偏于形而下的。近来,比较有启发的是生活整理术和NLP。

  生活整理术,包含生活的优雅、生活的秩序、生活的风尚。其宗旨是和喜欢的一切在一起。从你的衣橱、桌面出发,断舍离一切,只留下你心动的物,让这种怦然心动与秩序的态度,进而扩充到整个生活与人生。
  此类书多为日人所写,看过的有《断舍离》系列(有点啰嗦,择其一二看之即可)、《怦然心动的人生整理魔法》、《不持有的生活》(なにもない)、《生活极简术》(人生50个断舍离)、《日和手帖》(MOOK,里面有许多大神过着怦然心动的活法)。...


  毕业后,看书从原来偏于形而上的,到现在偏于形而下的。近来,比较有启发的是生活整理术和NLP。

  生活整理术,包含生活的优雅、生活的秩序、生活的风尚。其宗旨是和喜欢的一切在一起。从你的衣橱、桌面出发,断舍离一切,只留下你心动的物,让这种怦然心动与秩序的态度,进而扩充到整个生活与人生。
  此类书多为日人所写,看过的有《断舍离》系列(有点啰嗦,择其一二看之即可)、《怦然心动的人生整理魔法》、《不持有的生活》(なにもない)、《生活极简术》(人生50个断舍离)、《日和手帖》(MOOK,里面有许多大神过着怦然心动的活法)。

  NLP,全称神经语言程序学,大体上介于自我激励心灵鸡汤与正统心理学之间的学问,此学经天纬地,彻上彻下,出处语默,莫不由兹,上可见万物之情,中可医心疾,下可觅妹子。在本源充足的情况下,可迅速开发气场。
   此学有两个命题:1.控制事物的意义。2.与三界六道建立联系。
   此学研究面甚广,可大可小,例如以下几个问题:
  1.如何使一头愤怒的大象安静下来?
  2.作为医生,如何不被激情状态下的患者及其家属围殴和砍杀?
  3.在跳楼现场如何干预自杀?
  4.如何解下自己的心防?如何解下妹子的心防?如何解下人间世的心防?
  5.以天理之心摸妹子和以人欲之心摸妹子其手感有什么不同?
  6.如何通过非暴力不合作原则赢得国家独立?
  7.如何召唤你所想要的事物与生活?
   

chen_rener

解码卓越元素之通过事业创造更美好世界

【导读】这是一场关于提升自我觉察的心灵成长体验,唤起自己的热情从而改善工作软环境的英雄之旅!

Day1 带着正向意图开启英雄之旅(期望和贡献)

活动从大家的正向意图分享开始团队破冰热身,通过回想工作生活中禁锢自己的无形绳子,想象自己犹如被套住的牛马围着树桩自转,一对一开始叙述那些混沌与迷茫的情况,每一组都由A和B组成,每一轮结束后老师鼓励大家给予对方掌声表示慷慨的分享,感恩对方认真倾听!

A:是的,我看见你了!

B:是的,我在这里,有你陪伴真的很好!

瞬间我们感受到一种场域的形成,温暖、开放、理解、自由,平静.......

场域的形成

有小伙伴问起如何营造一个会议或者工作坊需要的...

【导读】这是一场关于提升自我觉察的心灵成长体验,唤起自己的热情从而改善工作软环境的英雄之旅!

Day1 带着正向意图开启英雄之旅(期望和贡献)

活动从大家的正向意图分享开始团队破冰热身,通过回想工作生活中禁锢自己的无形绳子,想象自己犹如被套住的牛马围着树桩自转,一对一开始叙述那些混沌与迷茫的情况,每一组都由A和B组成,每一轮结束后老师鼓励大家给予对方掌声表示慷慨的分享,感恩对方认真倾听!

A:是的,我看见你了!

B:是的,我在这里,有你陪伴真的很好!

瞬间我们感受到一种场域的形成,温暖、开放、理解、自由,平静.......

场域的形成

有小伙伴问起如何营造一个会议或者工作坊需要的场域,来自卫红老师的分享:

1, 首先要带着觉察问自己今天状态怎么样?是否带着情绪来?是否对讨论内容有充分认识或准备? 是否紧张?

2, 可以找高能量的人在场,比方你的老板或者该领域的专家

3, 可以找一些小伙伴做现场支持

原来每个人都不只是一个人, 而是一个能量场,通过对自己的觉察和伙伴们的抱持去营造好一个场域,你想要拥有的一切,就会很容易被你融化,被你吸引。

尝试改变思维模式

你收获哪些成就时会想表达感恩,哪些事情能让你感受到慷慨,你喜欢把什么分享出去,为他人付出什么?

成功是什么?与成功建立内在体验连接的感受是感恩和慷慨!

感恩和慷慨不是说一对一的就某个人某个事件,是自己对待生活的一种状态。当我们带着感恩和慷慨转变思维模式去行动你会收到意向不到的结果!

来自卫红老师的分享:

  •  在慷慨的给予我们能触及到的人时候,允许自己还有很多时候无法给予;不用计较过多过少,宇宙会帮你平衡的。

  • 当打开自己,愿意跟别人分享自己时,在我们需要帮助的时候,脆弱的时候,总是会恰到好处的收到!我们可以感恩的接受!

  • 当对过去有不舍,对未来有恐惧,把不舍转化为感恩,把恐惧转化为好奇,带着一颗感恩好奇之心,勇敢前行!

寻找资源

是什么造就每个人的差别?每个人从小到大都拥有的不同的资源,它可以是一个品格,一个事件,一个人,一场旅行,一个失败的项目,都会触动着自己。当我们去罗列时,发现每个人的资源橱窗都是满满的非常富足。原来我们一直都有源源不断的能量,只是没有察觉。

生活可以是平淡的,但是每一个小小举动,比方用长满胡子脸去亲你的小朋友;每天上班前亲吻你的家人;回家后给他们一个拥抱;都会默默地埋下一些爱的种子而这些都是成长中的资源!

所以你还吝啬你的吻和拥抱么?

人生召唤

人生的召唤从问题开始,

第一次看现场作个案,当你的内心被触动时你的眼睛就会闪亮。

  • 我的人生召唤是:探索新奇的世界,与大家一起共同成长!

  • 我的人生召唤是:为人类的改革事业而努力,从我做起!

  • 我的人生召唤是:绽放内在力量,享受平衡喜悦人生,从我开始!

  • 我的人生召唤是:用行动点燃人们的梦想和激情,从我开始!

为什么需要从我开始,因为只有先活出自己才能带给他人或世界你的人生召唤,只有把自己照顾好了,内在的力量才能生生不息源源不断!

 

AHA大会上自我蜕变分享上也提到三个黄金圈(me照顾我自己,us照顾好身边的人,it要处理的事情),当把Me和Us照顾好后,团队效能提升的空间将会达到390%.

 有研究表明,专注于自己人生召唤的人

  • 3X 可能性过上优质生活

  • 6X 工作效率提高

  • 4X 投入产出利润

《云中行走The Walk》

第一天我们以《云中行走》的电影来结束,影片是一个真实故事改编,讲述了1974年杂技人菲利普·帕特,追逐自己的梦想,在纽约世贸大楼双子塔之间搭建钢索,成功穿越两座大楼经历的故事。在菲利浦追逐自己梦想的路上,找到了自己的资源,女友,团队,导师,观众,面对即在眼前的梦想,碰到的障碍都已然不在那么艰难!当行走在双子座间的钢丝时,享受着实现了人生召唤的愉悦和感动,一瞬间他从内心涌动着感恩,感恩伙伴,感恩观众欣赏的目光,感恩纽约。

再次验证与成功内在建立连接的感受就是感恩和慷慨! 该影片也阐述新一代企业家精神:创造成功且目标明确的商业,期望获得个人成长和价值实现,吸引有同样愿景使命和抱负的人并与之合作!

 

Day2 我们从一首鲁米的客栈,善待每一个坏情绪,你才会有好心情!

 

拥抱尝试

给自己拥抱,一个很简单的动作,它可以有不同层级的区别。一级是简单的身体接触,二级时间稍长但是没有连接,三级拥抱时用内心的报持建立无形的连接,问问自己多久没有拥抱,最近跟谁有进行过建立连接的拥抱。从身体的僵硬到能够静心聆听对方的呼吸,感受对方的心跳。

我们场域环绕着支持、接纳、理解、包容、感动、流动、连接。。。

是的,肢体语言的力量是无穷!请给你的战友你的家人你的那一刻一个抱持吧!

障碍转换

工作中当我们会碰到障碍,是否发现自己产生了厌倦,恐惧,沮丧,畏缩的心理,有人选择与之对抗一定要争吵你的错和我的对最终偏离你的初心,有人假装不见但它依然存在影响着你, 有人却很聪明的转换了它。当你面对自己的人生召唤,带着觉察去体会,去拥抱障碍,障碍也许已经不再存在。

  • 当你在纠结为什么总是我,为什么又失败,试着将这种封闭式的问题转变成打开式问自己我们可以如何来做避免失败!

  • 在工作中有时候我们发现老板怎么成了我们的障碍,我们需要反思的我们呈现的是否是我们短期的目标?而不是我们的最终正向意图?

生活不止眼前的苟且,还有远方的诗和田野!

 

集体疗愈 

经过总结梳理两天的过程,老师让我们思考马上可以回去实施或者尝试改变的事情!

 

第一次看到现场疗愈,当有小伙伴分享通过改变自己去重新绽放自己时,情不自禁带出了情绪,大家都带着觉知(打开眼睛)去感受,自我觉察就是这么微妙。当我们大家抱在一起时,在耳边不断给予支持,你可以的,你能做到,你行的。深深呼吸,你会感受到大家的看见和鼓励,你会发现自己满满的能量!

看看我们每个小伙伴的精气神,跟昨天的迷茫的状态是完全不一样的!

后记

———————————————————

  • 每一次参加工作坊收获的不仅是知识和体验,同时收获几个小伙伴,慢慢的你的周围逐渐多了很多正能量和正向资源。

  • 这次发现中兴的伙伴们明显比博世打开,不知道是因为同一个团队的原因还是之前有过一次心灵成长课程的洗礼。虽然来自三个城市的同事,但就像一个大家庭,也许是因为部门经理的支持和打开,印象中部门经理非常欣慰的向大家表示感谢,从敏捷转型到现在大家可以当他不存在!

  • 会上还有人分享拴牛绳打结方法!

  • 中兴还有很多情绪管理,九型人格管理的课程!

  • NLP全名是Neuro Linguistic Programming,中文译为「神经语言程序学」



LOFTER

让兴趣,更有趣

简单随性的记录
丰富多彩的内容
让生活更加充实

下载移动端
关注最新消息