匆匆闲暇
首发于匆匆闲暇
人工智能产品经理的学习理解阐述

人工智能产品经理的学习理解阐述

本次文章的主要内容是基于近期对AI产品经理的学习理解和总结,针对人群为已经有一些互联网产品经理经验但在AI这块为小白或者大白的同学们,对于已经有些许实际AI类产品经验可能会有些班门弄斧。文章将分为四个部分,第一部分主要阐述AI产品经理(理解类);第二部分介绍一些算法(技术类);第三部分说一个小项目(经验类);第四部分聊一聊其他(闲谈类)。


  • 第一部分,AI产品经理的理解和认知

对于AI产品经理的理解和传统产品经理的知识总结,现在web上已经有多文章和专业人士给与了解答和阐述,这里可以推荐看一下黄刊老师的200页对于AI产品经理的分析总结(文末有下载链接),另外可以百度或者Google一些相关的知识综合分析,当然如果身边有此类的工作人员当面交流会更好,毕竟纸上得来终觉浅。分析后会发现,大部分的文章对于AI产品的理解和产品经理概念刚出来的时候一样,有些模棱两可并且很宽泛,进而言之都是加了一些升级版的需求进来,比如对领域知识的理解等等,如果是有一定经验的产品或者理解类足够丰富的人看这类的,显然是不行的,大部分出于人云亦云。我们不能给一个标准的答案,本质性的概念大同小异,或者说概念没有什么准确性的定义,大概有一千个读者,一千个理解定义。这也和现有的AI发展相关,对于人工智能的定义本就是有异议的,没有统一的答案(愿意追溯人工智能发展历史的同学也可以看一下《漫谈人工智能》)。但是,事物的发展都会有一定的规律,就如同产品经理经历了几年的发展期越发的成熟,那么基于AI类的产品经理,也会在发展中不断成熟。

正在阅读一本书叫《在线》,里边就举了一个电的例子。由于电的出现,开启了人类的第二次工业革命,人类发展进入到了一个新的浪潮。电力尚未普及的时候,家里有个点灯,于是用了一台发电机让点灯亮起来了,然后家里又买了台电视机,就又添加了一台发电机,家里后续买了越来越多的电器设备,发电机也越来越多,显然这样是不行的。后来就出现了国家电网,由中心统一配电,成本较低,且终端设备可以随意连接。那么到了今天,看互联网的发展,一家企业为了提供线上服务,买了一个服务器,可以支持500人同时在线,后来由于业务发展,需要满足更多的人同时在线,于是不断的添加和购买服务器满足业务,可是后来发现,只有某个季节才能需要如此庞大的计算机集群,其他的时间都是浪费的,所以这种也造成了很多问题。于是云计算就出现,将计算放到云上,弹性分配资源。这应该算是很典型的事物发展规律应用了。

那么AI产品经理是?我觉得总体脱离不开一点,终归是产品经理。我们不能特意的强调AI,而忽略了产品经理的本身特质,所以AI产品经理的定义就如同之前有人问产品经理要不要懂技术是一类问题,这里应该放到指定的场景中来说明。个人总结,借用十九大的开端标语“不忘初心”,产品经理是处理需求的,从发现问题到解决问题,这里会有主动需求和被动需求,那么AI产品经理也是来处理需求。只不过过程可能会不一样,方法不一样,落地就发现更不一样。所谓需求改变代码,代码改变世界,AI产品经理需要落地到应用场景中来定义,类比现有的,比如社区产品经理,数据产品经理,那么给AI产品经理定义的时候,就应该是个性推荐,智能家居,个人助理,自动驾驶等等。进行细分定义,大而全的定义往往会造成迷惑。对于AI产品经理,技术的理解是必须的,产品脱离不了技术,对于技术边界的理解,技术采用的处理逻辑的理解,可以更加深入的理解产品、优化产品、创造产品。


  • 第二部分,对于一些常用算法的介绍(文末会有机器学习套装视频分享)

本段内容主要是让大家对ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的。。下边进入正文:(这里直接引用大神的内容了---出处:轻松看懂机器学习十大常用算法,解释的比较ok,同时对于产品很容易理解):

1. 决策树

根据一些 feature 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。


2. 随机森林

在源数据中随机选取数据,组成几个子集


S 矩阵是源数据,有 1-N 条数据,A B C 是feature,最后一列C是类别


由 S 随机生成 M 个子矩阵


这 M 个子集得到 M 个决策树

将新数据投入到这 M 个树中,得到 M 个分类结果,计数看预测成哪一类的数目最多,就将此类别作为最后的预测结果


3. 逻辑回归

当预测目标是概率这样的,值域需要满足大于等于0,小于等于1的,这个时候单纯的线性模型是做不到的,因为在定义域不在某个范围之内时,值域也超出了规定区间。


所以此时需要这样的形状的模型会比较好


那么怎么得到这样的模型呢?

这个模型需要满足两个条件 大于等于0,小于等于1

大于等于0 的模型可以选择 绝对值,平方值,这里用 指数函数,一定大于0

小于等于1 用除法,分子是自己,分母是自身加上1,那一定是小于1的了


再做一下变形,就得到了 logistic regression 模型



通过源数据计算可以得到相应的系数了



最后得到 logistic 的图形



4. SVM

support vector machine

要将两类分开,想要得到一个超平面,最优的超平面是到两类的 margin 达到最大,margin就是超平面与离它最近一点的距离,如下图,Z2>Z1,所以绿色的超平面比较好


将这个超平面表示成一个线性方程,在线上方的一类,都大于等于1,另一类小于等于-1


点到面的距离根据图中的公式计算


所以得到 total margin 的表达式如下,目标是最大化这个 margin,就需要最小化分母,于是变成了一个优化问题



举个栗子,三个点,找到最优的超平面,定义了 weight vector=(2,3)-(1,1)


得到 weight vector 为(a,2a),将两个点代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,进而得到超平面的表达式。



a 求出来后,代入(a,2a)得到的就是 support vector

a 和 w0 代入超平面的方程就是 support vector machine


5. 朴素贝叶斯

举个在 NLP 的应用

给一段文字,返回情感分类,这段文字的态度是positive,还是negative


为了解决这个问题,可以只看其中的一些单词



这段文字,将仅由一些单词和它们的计数代表


原始问题是:给你一句话,它属于哪一类

通过 bayes rules 变成一个比较简单容易求得的问题


问题变成,这一类中这句话出现的概率是多少,当然,别忘了公式里的另外两个概率

栗子:单词 love 在 positive 的情况下出现的概率是 0.1,在 negative 的情况下出现的概率是 0.001


6. K最近邻

k nearest neighbours

给一个新的数据时,离它最近的 k 个点中,哪个类别多,这个数据就属于哪一类

栗子:要区分 猫 和 狗,通过 claws 和 sound 两个feature来判断的话,圆形和三角形是已知分类的了,那么这个 star 代表的是哪一类呢


k=3时,这三条线链接的点就是最近的三个点,那么圆形多一些,所以这个star就是属于猫


7. K均值

想要将一组数据,分为三类,粉色数值大,黄色数值小

最开心先初始化,这里面选了最简单的 3,2,1 作为各类的初始值

剩下的数据里,每个都与三个初始值计算距离,然后归类到离它最近的初始值所在类别


分好类后,计算每一类的平均值,作为新一轮的中心点


几轮之后,分组不再变化了,就可以停止了






8. Adaboost

adaboost 是 bosting 的方法之一

bosting就是把若干个分类效果并不好的分类器综合起来考虑,会得到一个效果比较好的分类器。

下图,左右两个决策树,单个看是效果不怎么好的,但是把同样的数据投入进去,把两个结果加起来考虑,就会增加可信度


adaboost 的栗子,手写识别中,在画板上可以抓取到很多 features,例如 始点的方向,始点和终点的距离等等


training 的时候,会得到每个 feature 的 weight,例如 2 和 3 的开头部分很像,这个 feature 对分类起到的作用很小,它的权重也就会较小


而这个 alpha 角 就具有很强的识别性,这个 feature 的权重就会较大,最后的预测结果是综合考虑这些 feature 的结果



9. 神经网络

Neural Networks 适合一个input可能落入至少两个类别里

NN 由若干层神经元,和它们之间的联系组成

第一层是 input 层,最后一层是 output 层

在 hidden 层 和 output 层都有自己的 classifier


input 输入到网络中,被激活,计算的分数被传递到下一层,激活后面的神经层,最后output 层的节点上的分数代表属于各类的分数,下图例子得到分类结果为 class 1

同样的 input 被传输到不同的节点上,之所以会得到不同的结果是因为各自节点有不同的weights 和 bias

这也就是 forward propagation


10. 马尔可夫

Markov Chains 由 state 和 transitions 组成

栗子,根据这一句话 ‘the quick brown fox jumps over the lazy dog’,要得到 markov chain

步骤,先给每一个单词设定成一个状态,然后计算状态间转换的概率


这是一句话计算出来的概率,当你用大量文本去做统计的时候,会得到更大的状态转移矩阵,例如 the 后面可以连接的单词,及相应的概率


生活中,键盘输入法的备选结果也是一样的原理,模型会更高级



  • 第三部分,一个简单项目分享

说了对于产品的理解,和算法的知识,接下来简单分享一个做过的推荐类的小项目(智能选品)。简单介绍一下需求背景,有一个集中的商品池,里边有成千上万不同种类的sku,下边有多个不同类型的销售平台(在线商城),要求每个商城选出适合这个商城人群的商品进行商家售卖,比如针对人群是妈妈的商城,选的商品都要是母婴类的。但是由于商品和销售平台比较多,不可能所有的都要人工来选择【痛点】,所以最好由机器选择【需求】。



这里我们选择了SVM算法,先让人工选取一部分商品,确定该销售平台需要的商品特征。当人工选取一部分商品后,会计算出一个最优的超平面f(x),然后给定一个值K,计算当商品距离f(x)的值<K时,选中。这样就完成了由人共选取一部分作为训练集,然后机器根据算法来选取其余的商品。这里只是简单的说明了算法在的应用,只考虑了正反馈机制,实际项目中还会考虑负反馈等机制,本次文章不做过多阐述。产品的总体流程是这样,回归到操作性质,还是要进行需求的梳理等产品经理日常工作,不过这里我们运用了以前所没有东西,进行需求处理。再看一下上边的产品经理定义,细化到具体类型的工作流,是不是更加的清晰。


  • 第四部分,AI产品经理的杂谈


对于人工智能,要有自己的思考在里边,有很多时候AI已经被神化了,神化到我们幻想的样子。但是现实是残酷的,有些东西远没有发展的那么好,所以在个人意识里边,AI产品经理必须理解技术边界。摩尔定律是计算机器每个18个月就更新换代,但是对于算法来说,近期可能不会有什么太大的发展,目前比较广泛的是google 的TensorFlow 算法。在前文中我也举了例子,说明了很多事物的发展规律,了解更多的可以看看kk 的《必然》和《失控》。那么人工智能根据历史发展的规律来看,有很大的可能会出现低谷期,现在其实有很多是处于泡沫中。AI 是用来解决问题的,技术成果必须实现其出现的价值,才有持续的意义。AI产品经理的价值就在于,寻求特定的场景,主动或者被动的处理需求,形成产品,将技术落地,把AI转化为生产力。

人工智能经过媒体的炒作,经常会有担心lost wok的文章发文,并被数人追随,我觉得可以乐观的看到这个问题,权威机构研究表明,AI每让社会消失一个职位,都会有2.5个新职位出现,并且职位种类也会出现很多。同样,我们还可以用历史发展的规律来解释,互联网的出现不仅没有让很多人失业,反而带来了更多职业机会,比如,产品经理这个职位。现在是AI发展的“初期”,就如同人类开始的孩童时期,与其顾虑,不如迎接。


最后,AI is used to solve problems !

小站链接:基于对AI产品经理的学习理解阐述 - 晓生阑珊

编辑于 2017-10-20

文章被以下专栏收录

    也还有点其他的东西。。。 博客:匆匆闲暇(https://www.aotur.com) 公众号:匆匆闲暇