31

亚马逊畅销书的NLP分析——推荐系统、评论分类和主题建模

 4 years ago
source link: http://mp.weixin.qq.com/s?__biz=MjM5ODkzMzMwMQ%3D%3D&%3Bmid=2650412822&%3Bidx=5&%3Bsn=bb4f22487fd8281235904d19071a9e65
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

fieYjqq.jpg!web

作者: Ellen Tang

编译:ronghuaiyang

导读

本文介绍了对亚马逊畅销书的NLP分析,并通过这些分析为客户产生了价值。

Enem63i.jpg!web

背景信息和目标

与所有其他零售公司一样,亚马逊努力解决客户评论中存在的欺诈和质量差的问题,并开发系统来识别公正和可靠的信息,以获得更好的客户体验。 该分析试图将自然语言处理、情感分析和主题建模领域的现有工作应用到从 Amazon 检索的数据中。

随着数据分析和应用技术的发展,文本和自然语言分析越来越受到人们的关注,因为它为传统的定量方法带来了更有价值的见解。 本文所要解决的问题包括三个方面: 1、建立用户兴趣档案,更好地向用户推荐产品。 2、设计一个系统,对新的评论进行“有用性”的“预评价”,以解决亚马逊客户评论的质量差的问题。 3、构建能够从这些评论中发现关键见解(主题)的智能系统,使客户能够快速提取评论所涵盖的关键主题。

数据源规范和数据采集细节

本项目使用的数据集是从 UCSD Julian McAuley 教授的研究门户网站导入的。 目前的数据集包含从 2013 年到 2014 年的超过 80,000 篇书评,并被分割为只包含前 20 名畅销书的书评,从而具有比最常见的基线更高的预测能力和准确性。

数据采集过程中的主要任务之一是建立一个文本规范化器,将以下操作串联起来进行文本数据预处理: 去除重音字符,对缩写进行复原,删除特殊字符,词干提取,词型还原,删除停止词以及去除重复词。

EbM3Urz.jpg!web

JnEvaaY.jpg!web

设计选择和实现方法的基本原理

主题建模和分类

BreMzaN.png!web

通过对两种不同的主题建模方法进行网格搜索和比较,结果表明 Mallet 的效果更好,25 个主题的一致性和稀疏性最好。 基于这 25 个主题,我们可以简单地提取一个关于评论内容的简要想法。 例如,第 14 个主题可能与《五十度灰》相关,第 25 个主题可能与《饥饿游戏》相关。

Vzqeu2Y.jpg!web

yI3auiF.jpg!web

2Yz6jmf.jpg!web

分类法中包含的类别和节点代表有价值的评论者对畅销书的反馈,图书销售商可以使用评论类别中的更改来监视和更改销售策略。 下面三种评论可能针对特定的读者,因为这些评论的内容多年来都是一致的。

命名实体识别+购物篮分析。

bqiY7vu.jpg!web

情感分析

为了进行情感分析,我为情感建模添加了一个积极与消极的列,并将 1-3 的得分转化为消极的评价,将 4-5 的得分转化为积极的评价。 这里的情感分析包括三种传统的机器学习算法,包括朴素贝叶斯分析、多项式贝叶斯和使用 Tfidf 方法的逻辑推理。 我使用准确性评分和 F-1 评分来比较这三种模型的性能和预测能力。 分析表明,与多项式贝叶斯相比,使用 TF 的 Logistic 算法具有更高的准确率,但是朴素贝叶斯分类器计算出了三种模型中准确率最好的数和 F-1 的得分。

AzENzeV.jpg!web

meAju2u.png!web

评论质量分类模型

分类模型的目的是帮助亚马逊判断每条新评论的质量。 在原始数据集中,有用的评论被标记为“helpful_rate”,范围从 0 到 1。 helpful_rate 分数越高,评论越有帮助。 因此,我使用 0.5 作为阈值,将数据分为“有用的”和“无用的”两个级别,作为因变量。 在特征工程过程中,使用 unigram TfidfVectorizer 将所有的评论转化为向量是第一步。 这个过程产生了 1500 个 n-gram 特征,包含了 bigram 和 trigram。 计算每个文档中的单词、字符、标点符号、大写单词、标题单词和 pos 标签的数量。 主题建模、分类、情绪分析和命名实体识别的结果也包括在内。 在测试这些特征之后,n-gram 特征被删除,因为它们没有帮助。

iaq2Qzr.jpg!web

FvQVJrM.jpg!web

分类器方面,在 hugging face transformer 中,教程中实现了预先训练好的 RoBERTa 模型。 然而,它的表现并不好。 在这种情况下, RoBERTa 适合这个问题。 如果 Amazon 想要使用这种预先训练好的模型,那么事先对 RoBERTa 的评论数据集进行调优会更有帮助。 对所选择的特征进行了 GaussianNB、Logistic 回归、Random Forest、XGBoost 的测试,XGBoost 的性能最好。 最后的模型是在对 max_depth、min_child_weight 和 gamma 等参数进行网格搜索后构建的。

MJraUz3.jpg!web

N3iI7nU.png!web

部分网格搜索后的最终模型结果:

nI7NZni.png!web

推荐系统

亚马逊 35%的利润来自于推荐系统和消费者对产品使用的评论和意见,这是一个强大的信息来源,可以用于推荐系统。 Amazon 目前使用的是项目到项目的协同过滤,它将用户购买的每件商品与相似的商品进行匹配,然后将这些相似的商品组合成用户的推荐列表。 本推荐系统是以产品描述和顾客购买行为为基础的。 这项分析包括了一个推荐系统,该系统基于亚马逊(Amazon)对 2000 本最畅销图书的客户评论,利用 k 近邻查找最相似的前两本图书。 该系统提供了一种排序机制,用于根据消费者评论的表示对产品相似性进行优先排序。

meURVrm.png!web

jmIBFb6.jpg!web

评估标准及量度

分类模型

分类模型采用 Matthews 相关系数、准确率评分、F1 分和 roc_auc 分来评价模型的准确性和精确度。 分数越高,模型越好。 基于这些分数,将 XGBoost 作为最终模型。 在最后的模型中,我们使用 5000 棵树来训练模型,学习率设置为 0.01,最大深度设置为 4,最小子权重设置为 6。 最终模型的 MCC、准确率、F1、roc_auc 分别为 0.488、0.7561、0.8013、0.8297。

推荐模型

为了建立一个基于客户评论的推荐系统,我首先对 Amazon 图书的整体评分和评论数据集进行逻辑回归,并将每本书的所有客户评论内容转化为一个“词袋”。 然后使用 k 近邻进行基于项目的协同过滤,找出最相似的两本书。 这里应用的关键评估指标包括使用 MSE 来确定预测模型的准确性和计算预测精度数。 与 k= 5 的 kNN 和算法=KD_Tree 相比,使用 ball_tree 模型的 k=3 具有更好的准确率(80%)和更小的 MSE(0.21)。

结果和结论

根据分析结果,本项目所开发的功能适用于解决客户评审中存在的欺诈和质量差的问题,识别公正可靠的信息以获得更好的客户体验。 特别是,关键特征和 NLP 技术有助于解决以下业务问题:

评论的质量: 为了提高客户评论的质量和在线购物体验,开发了一个系统,在新评论的“帮助程度”上对新评论进行评估。 目前的模式建议亚马逊鼓励顾客用更多的名词、动词、副词和代名词来描述阅读体验,因为这些可以让评论更有帮助。

推荐系统: 推荐系统以自由文本形式建立在客户评论的基础上,并构建了一个排名机制,为客户提供他们可能感兴趣的商品的排名列表,以鼓励浏览和购买。

产品特性和关键主题抽取: 分析设计了一个智能系统,帮助图书零售商和客户快速提取评论涵盖的关键主题和见解。 这个特性帮助 Amazon 推动观望的客户进行购买,并更好地定制产品,从而在实践中提供高质量的产品和审查建议。

这个分析项目的限制之一是数据集的大小。 虽然我们在情感分析和主题建模中使用的数据集有超过 80000 个数据点,在推荐系统中的数据集有超过 100 万个数据点,但是前一个数据集只覆盖了前 20 名的畅销书,后一个数据集覆盖了前 2000 名的书。 合并更大的数据集并将产品描述数据与开发的特性合并将提高业务洞察力的质量和所设计模型的准确性。 遇到的另一个限制是有限的机器计算能力。 将特征工程和建模过程切换到云计算系统将大大减少复杂计算的处理时间。

END

英文原文:https://medium.com/@ntang_7667/nlp-analysis-on-amazon-best-selling-books-recommender-system-reviews-classification-and-topic-faad4363de84

推荐阅读

AINLP年度阅读收藏清单

斯坦福大学NLP组Python深度学习自然语言处理工具Stanza试用

当当的羊毛,快薅,这一次要拼手速!

数学之美中盛赞的 Michael Collins 教授,他的NLP课程要不要收藏?

自动作诗机&藏头诗生成器:五言、七言、绝句、律诗全了

From Word Embeddings To Document Distances 阅读笔记

模型压缩实践系列之——bert-of-theseus,一个非常亲民的bert压缩方法

这门斯坦福大学自然语言处理经典入门课,我放到B站了

可解释性论文阅读笔记1-Tree Regularization

征稿启示 | 稿费+GPU算力+星球嘉宾一个都不少

关于AINLP

AINLP 是一个有趣有AI的自然语言处理社区,专注于 AI、NLP、机器学习、深度学习、推荐算法等相关技术的分享,主题包括文本摘要、智能问答、聊天机器人、机器翻译、自动生成、知识图谱、预训练模型、推荐系统、计算广告、招聘信息、求职经验分享等,欢迎关注!加技术交流群请添加AINLPer(id:ainlper),备注工作/研究方向+加群目的。

qIR3Abr.jpg!web


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK