在线观看www成人影院-在线观看www日本免费网站-在线观看www视频-在线观看操-欧美18在线-欧美1级

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Apriori關聯規則算法(Python代碼)

數據分析與開發 ? 來源:數據分析與開發 ? 作者:數據分析與開發 ? 2022-03-22 10:12 ? 次閱讀
一、關聯規則概述1993年,Agrawal等人在首先提出關聯規則概念,迄今已經差不多30年了,在各種算法層出不窮的今天,這算得上是老古董了,比很多人的年紀還大,往往是數據挖掘的入門算法,但深入研究的不多,尤其在風控領域,有著極其重要的應用潛力,是一個被低估的算法,很少見到公開的文章提及,我嘗試一一剖析,希望給你帶來一定的啟示。 我倒是進行了比較深刻、全面的思考,并進行了大量的實驗,這個話題感覺可以聊三天三夜。世界風云變幻,但本質沒變化,各種關聯一直存在,有意或無意的! 比如你女朋友,低頭玩手指+沉默,那大概率生氣了,那這就是你總結出來的規則。啤酒與尿布的例子相信很多人都聽說過吧,故事是這樣的:在一家超市中,人們發現了一個特別有趣的現象,尿布與啤酒這兩種風馬牛不相及的商品居然擺在一起,但這一奇怪的舉措居然使尿布和啤酒的銷量大幅增加了。為什么有這么奇怪現象呢?是因為美國婦女在丈夫回家前買尿布,然后丈夫順手買了自己喜歡的啤酒,所以發生了這么有趣的事情。 很多人只記住了啤酒尿不濕,很少深入思考,我們稍微轉換下,日常的事情,也存在非常多的關聯規則?
2df6f5d8-a916-11ec-952b-dac502259ad0.png

二、應用場景舉例

1、股票漲跌預測

放量+高換手率 -> 大概率上漲,歷史數據挖掘,假如發現放量+高換手率的股票大概率上漲,則挖掘當天滿足條件的個股,然后第二天買入,躺賺。

2、視頻、音樂、圖書等推薦

根據歷史數據,如果大規模的存在某些用戶看劇列表為:小時代 -> 上海堡壘,那么一個新的用戶看了小時代,馬上就給推薦上海堡壘,那大概率也會被觀看,呼蘭的賬號,就是這么臟的。

3、打車路線預測(考慮時空)

根據大量的數據挖掘出以下規則早上:起點家->目的地公司晚上:起點家->目的高鐵站周末:起點家->目的地購物中心

那當你每天早上打開軟件的時候,打車軟件就會推薦你的公司作為目的地,大大的減少用戶的打車時間。如下圖,我輸入小區名稱,馬上給我推薦了三個地方,杭州東站第一位,因為平時的打車這個組合的支持度最高。

2e0aa498-a916-11ec-952b-dac502259ad0.png

4、風控策略自動化挖掘

根據歷史標題,總結出規律發現商品標題包含 老司機+百度網盤 -> 色情風險高,那后面遇到這標題包含這兩個詞語的,就直接拒絕了。 根據歷史行為數據,發現了沉默用戶+非常用地登錄+修改密碼->大概率都被盜號了,那一個新的賬戶滿足這個三個條件,那馬上就進行賬戶凍結或者實人認證,就能避免盜號風險的發生。 根據歷史數據,發現用戶A +B 每天都相隔10s登錄 ,則可以認為A、B存在關聯關系,可能是機器控制的同一批薅羊毛賬戶。風控策略的自動化挖掘,這個也是我們后續要重點關注和講解的地方。

三、3個最重要的概念

關聯規則有三個核心概念需要理解:支持度、置信度、提升度,下面用最經典的啤酒-尿不濕案例給大家舉例說明這三個概念,假如以下是幾名客戶購買訂單的商品列表:

2e2581dc-a916-11ec-952b-dac502259ad0.png

1、支持度

支持度 (Support):指某個商品組合出現的次數總訂單數之間的比例。

在這個例子中,我們可以看到“牛奶”出現了 4 次,那么這 5 筆訂單中“牛奶”的支持度就是 4/5=0.8。

2e39d222-a916-11ec-952b-dac502259ad0.png同樣“牛奶 + 面包”出現了 3 次,那么這 5 筆訂單中“牛奶 + 面包”的支持度就是 3/5=0.62e53d83e-a916-11ec-952b-dac502259ad0.png

這樣理解起來是不是非常簡單了呢,大家可以動動手計算下 '尿不濕+啤酒'的支持度是多少?

2、置信度

置信度 (Confidence):指的就是當你購買了商品 A,會有多大的概率購買商品 B,在包含A的子集中,B的支持度,也就是包含B的訂單的比例。

置信度(牛奶→啤酒)= 3/4=0.75,代表購買了牛奶的訂單中,還有多少訂單購買了啤酒,如下面的表格所示。

2e685868-a916-11ec-952b-dac502259ad0.png置信度(啤酒→牛奶)= 3/4=0.75,代表如果你購買了啤酒,有多大的概率會購買牛奶?2e7f345c-a916-11ec-952b-dac502259ad0.png置信度(啤酒→尿不濕)= 4/4=1.0,代表如果你購買了啤酒,有多大的概率會買尿不濕,下面的表格看出來是100%。2e91fc0e-a916-11ec-952b-dac502259ad0.png

由上面的例子可以看出,置信度其實就是個條件概念,就是說在 A 發生的情況下,B 發生的概率是多大。如果僅僅知道這兩個概念,很多情況下還是不夠用,需要用到提升度的概念。比如A出現的情況下B出現的概率為80%,那到底AB是不是有關系呢,不一定,人家B本來在大盤中的比例95%。你的A出現,反而減少了B出現的概率。

3、提升度

提升度 (Lift):我們在做商品推薦或者風控策略的時候,重點考慮的是提升度,因為提升度代表的是A 的出現,對B的出現概率提升的程度。提升度 (A→B) = 置信度 (A→B)/ 支持度 (B)所以提升度有三種可能:
  • 提升度 (A→B)>1:代表有提升;

  • 提升度 (A→B)=1:代表有沒有提升,也沒有下降;

  • 提升度 (A→B)<1:代表有下降。

提升度 (啤酒→尿不濕) =置信度 (啤酒→尿不濕) /支持度 (尿不濕) = 1.0/0.8 = 1.25,可見啤酒對尿不濕是有提升的,提升度為1.25,大于1。 可以簡單理解為:在全集的情況下,尿不濕的概率為80%,而在包含啤酒這個子集中,尿不濕的概率為100%,因此,子集的限定,提高了尿不濕的概率,啤酒的出現,提高了尿不濕的概率。

4、頻繁項集

頻繁項集(frequent itemset) :就是支持度大于等于最小支持度 (Min Support) 閾值的項集,所以小于最小值支持度的項目就是非頻繁項集,而大于等于最小支持度的的項集就是頻繁項集,項集可以是單個商品,也可以是組合。

頻繁集挖掘面臨的最大難題就是項集的組合爆炸,如下圖:

2ea15b86-a916-11ec-952b-dac502259ad0.png

隨著商品數量增多,這個網絡的規模將變得特別龐大,我們不可能根據傳統方法進行統計和計算,為了解決這個問題,Apriori算法提出了兩個核心思想:

某個項集是頻繁的,那么它的所有子集也是頻繁的
{Milk, Bread, Coke} 是頻繁的 → {Milk, Coke} 是頻繁的
如果一個項集是 非頻繁項集,那么它的所有超集也是非頻繁項集
{Battery} 是非頻繁的 → {Milk, Battery} 也非平凡

如下圖,如果我們已知B不頻繁,那么可以說圖中所有綠色的項集都不頻繁,搜索時就要這些項避開,減少計算開銷。

2eb71890-a916-11ec-952b-dac502259ad0.png

同理,如果下圖所示,{A,B}這個項集是非頻繁的,那虛線框后面的都不用計算了,運用Apriori算法的思想,我們就能去掉很多非頻繁的項集,大大簡化計算量,當然,面對大規模數據的時候,這種排除還是解決不了問題,于是還有FP-Growth(Frequent pattern Growth,頻繁模式增長樹)這種更高效的方法,后面有機會慢慢講。

2ecc1970-a916-11ec-952b-dac502259ad0.png

需要注意的是:

1)如果支持度和置信度閾值過高,雖然可以在一定程度上減少數據挖掘的時間,但是一些隱含在數據中的非頻繁特征項容易被忽略掉,難以發現足夠有用的規則;2)如果支持度和置信度閾值過低,可能會導致大量冗余和無效的規則產生,導致較大計算量負荷。

四、Python算法介紹

這里用的是Python舉例,用的包是apriori,當然R語言等其他語言,也有對應的算法包,原理都是一樣的,大家自行進行試驗。
#包安裝我們使用efficient-apriori,python中也可以利用apyori庫和mlxtend庫
pipinstallefficient-apriori

#加載包
fromefficient_aprioriimportapriori

‘’‘
apriori(transactions:typing.Iterable[typing.Union[set,tuple,list]],
min_support:float=0.5,
min_confidence:float=0.5,
max_length:int=8,
verbosity:int=0,
output_transaction_ids:bool=False)
上面就是這個函數的參數
min_support:最小支持度
min_confidence:最小置信度
max_length:項集長度
‘’‘

#構造數據集
data=[('牛奶','面包','尿不濕','啤酒','榴蓮'),
('可樂','面包','尿不濕','啤酒','牛仔褲'),
('牛奶','尿不濕','啤酒','雞蛋','咖啡'),
('面包','牛奶','尿不濕','啤酒','睡衣'),
('面包','牛奶','尿不濕','可樂','雞翅')]
#挖掘頻繁項集和頻繁規則
itemsets,rules=apriori(data,min_support=0.6,min_confidence=1)
#頻繁項集
print(itemsets)
{1:{('啤酒',):4,('尿不濕',):5,('牛奶',):4,('面包',):4},
2:{('啤酒','尿不濕'):4,('啤酒','牛奶'):3,('啤酒','面包'):3,('尿不濕','牛奶'):4,('尿不濕','面包'):4,('牛奶','面包'):3},
3:{('啤酒','尿不濕','牛奶'):3,('啤酒','尿不濕','面包'):3,('尿不濕','牛奶','面包'):3}}
itemsets[1]#滿足條件的一元組合
{('啤酒',):4,('尿不濕',):5,('牛奶',):4,('面包',):4}
itemsets[2]#滿足條件的二元組合
{('啤酒','尿不濕'):4,('啤酒','牛奶'):3,('啤酒','面包'):3,('尿不濕','牛奶'):4,('尿不濕','面包'):4,('牛奶','面包'):3}
itemsets[3]#滿足條件的三元組合
{('啤酒','尿不濕','牛奶'):3,('啤酒','尿不濕','面包'):3,('尿不濕','牛奶','面包'):3}
#頻繁規則
print(rules)
[{啤酒}->{尿不濕},{牛奶}->{尿不濕},
{面包}->{尿不濕},{啤酒,牛奶}->{尿不濕},
{啤酒,面包}->{尿不濕},{牛奶,面包}->{尿不濕}]

#我們把max_length=2這個參數加進去看看
itemsets,rules=apriori(data,min_support=0.6,
min_confidence=0.5,
max_length=2)
#頻繁項集
print(itemsets)
{1:{('牛奶',):4,('面包',):4,('尿不濕',):5,('啤酒',):4,('R',):4},
2:{('R','啤酒'):4,('R','尿不濕'):4,('R','牛奶'):3,('R','面包'):3,('啤酒','尿不濕'):4,('啤酒','牛奶'):3,('啤酒','面包'):3,('尿不濕','牛奶'):4,('尿不濕','面包'):4,('牛奶','面包'):3}}
#通過這個數據我們可以看到,項集的長度只包含有兩個項了

五、挖掘實例

每個導演都有自己的偏好、比如周星馳有星女郎,張藝謀有謀女郎,且鞏俐經常在張藝謀的電影里面出現,因此,每個導演對演員的選擇都有一定的偏愛,我們以寧浩導演為例,分析下選擇演員的一些偏好,沒有找到公開的數據集,自己手動扒了一部分,大概如下,有些實在有點多,于是簡化下進行分析。

2ee90058-a916-11ec-952b-dac502259ad0.png

可以看到,我們一共扒了9部電影,計算的時候,支持度的時候,總數就是9.

#把電影數據轉換成列表
data=[['葛優','黃渤','范偉','鄧超','沈騰','張占義','王寶強','徐崢','閆妮','馬麗'],
['黃渤','張譯','韓昊霖','杜江','葛優','劉昊然','宋佳','王千源','任素汐','吳京'],
['郭濤','劉樺','連晉','黃渤','徐崢','優恵','羅蘭','王迅'],
['黃渤','舒淇','王寶強','張藝興','于和偉','王迅','李勤勤','李又麟','寧浩','管虎','梁靜','徐崢','陳德森','張磊'],
['黃渤','沈騰','湯姆·派福瑞','馬修·莫里森','徐崢','于和偉','雷佳音','劉樺','鄧飛','蔡明凱','王戈','凱特·納爾遜','王硯偉','呲路'],
['徐崢','黃渤','余男','多布杰','王雙寶','巴多','楊新鳴','郭虹','陶虹','黃精一','趙虎','王輝'],
['黃渤','戎祥','九孔','徐崢','王雙寶','巴多','董立范','高捷','馬少驊','王迅','劉剛','WorapojThuantanon','趙奔','李麒麟','姜志剛','王鷺','寧浩'],
['黃渤','徐崢','袁泉','周冬雨','陶慧','岳小軍','沈騰','張儷','馬蘇','劉美含','王硯輝','焦俊艷','郭濤'],
['雷佳音','陶虹','程媛媛','山崎敬一','郭濤','范偉','孫淳','劉樺','黃渤','岳小軍','傅亨','王文','楊新鳴']]
#算法應用
itemsets,rules=apriori(data,min_support=0.5,min_confidence=1)
print(itemsets)
{1:{('徐崢',):7,('黃渤',):9},2:{('徐崢','黃渤'):7}}
print(rules)[{徐崢}->{黃渤}]

通過上述分析可以看出:在寧浩的電影中,用的最多的是黃渤和徐崢,黃渤9次,支持度100%,徐崢7次,支持度78%,('徐崢', '黃渤') 同時出現7次,置信度為100%,看來有徐崢,必有黃渤,真是寧浩必請的黃金搭檔,且是一對好基友。 當然,這個數據量比較小,我們基本上肉眼也能看出來,這里只是提供一個分析案例和基礎方法,鞏固下基礎知識,算是開胃菜,大規模的數據,人眼無法直接感知的時候,算法的挖掘與發現,就顯得特別有意義了。

審核編輯 :李倩


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 關聯規則
    +關注

    關注

    0

    文章

    29

    瀏覽量

    8000
  • Apriori
    +關注

    關注

    0

    文章

    10

    瀏覽量

    7924

原文標題:Apriori 關聯規則算法(Python代碼)

文章出處:【微信號:DBDevs,微信公眾號:數據分析與開發】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于關聯規則的農副產品價格變化規律研究

    優化Apriori算法Apriori算法各種性能,來說明優化Apriori算法的優越性。…【關
    發表于 04-24 09:18

    PythonApriori算法和FP-Growth算法是什么

    [源碼和文檔分享]基于Python實現的Apriori算法和FP-Growth算法的頻繁項集挖掘的研究與實現
    發表于 06-04 12:49

    Apriori算法的一種優化方法

    介紹關聯規則挖掘中的經典算法――Apriori算法的關鍵思想。針對傳統Apriori
    發表于 04-10 08:48 ?19次下載

    基于用戶興趣導向的關聯規則數據挖掘

    本文在針對關聯規則Apriori 算法的基礎上,為了提高用戶數據挖掘的人機交互性能,解決關聯規則
    發表于 08-26 11:41 ?11次下載

    基于關聯規則Apriori-Partition算法的可視化

    關聯規則的提取是數據挖掘中的重要研究內容,對關聯規則提取中的Apriori算法進行了分析與研究,
    發表于 01-15 13:51 ?15次下載

    關聯規則Apriori算法的改進

    關聯規則是數據挖掘研究的一個重要分支。Apriori算法關聯規則挖掘中最有影響的經典
    發表于 05-13 16:37 ?0次下載

    基于項目編碼的關聯規則改進算法

    針對傳統的Apriori算法在挖掘布爾型關聯規則的頻繁項集中需不斷掃描數據庫,在時間與空間上都存在很大的冗余,尤其在處理海量稠密數據時,算法
    發表于 12-17 10:45 ?0次下載

    基于關聯規則挖掘算法的用電負荷能效研究(ECALT和APRIORI算法

    ,降低用電成本,本文試圖利用關聯規則算法甲對大型用電客戶的數據進行深度的數據挖掘,從而對用電負荷的能效進行優化。關聯規則的傳統
    發表于 10-30 16:03 ?0次下載
    基于<b class='flag-5'>關聯</b><b class='flag-5'>規則</b>挖掘<b class='flag-5'>算法</b>的用電負荷能效研究(ECALT和<b class='flag-5'>APRIORI</b><b class='flag-5'>算法</b>)

    關聯規則推薦算法分析及評估

    算法頻繁項集挖掘問題進行了重新評估和分析,定義了新的測評指標推薦非空率以及七前項頻繁項集關聯規則的概念,設計了基于K前項頻繁項集的剪枝方法,提出了優化Apriori
    發表于 01-09 17:17 ?0次下載
    <b class='flag-5'>關聯</b><b class='flag-5'>規則</b>推薦<b class='flag-5'>算法</b>分析及評估

    簡介Apriori算法并解析該算法的具體策略和步驟,給出Python實現代碼

    隨著大數據概念的火熱,啤酒與尿布的故事廣為人知。我們如何發現買啤酒的人往往也會買尿布這一規律?數據挖掘中的用于挖掘頻繁項集和關聯規則Apriori算法可以告訴我們。本文首先對
    的頭像 發表于 01-31 15:04 ?5833次閱讀
    簡介<b class='flag-5'>Apriori</b><b class='flag-5'>算法</b>并解析該<b class='flag-5'>算法</b>的具體策略和步驟,給出<b class='flag-5'>Python</b>實現<b class='flag-5'>代碼</b>

    Matlab關于Apriori算法設計

    本文詳細介紹了Matlab關于Apriori算法設計。Apriori算法是一種最有影響的挖掘布爾關聯規則
    發表于 02-02 16:20 ?5133次閱讀
    Matlab關于<b class='flag-5'>Apriori</b><b class='flag-5'>算法</b>設計

    Apriori算法詳解

    本文主要是對Apriori算法的詳解,包括了Apriori算法詳細介紹概括和步驟和Apriori算法
    發表于 02-02 16:35 ?2.1w次閱讀
    <b class='flag-5'>Apriori</b><b class='flag-5'>算法</b>詳解

    關聯規則挖掘——Apriori算法的基本原理以及改進

    本文詳細介紹了關于關聯規則挖掘——Apriori算法的基本原理以及改進。
    發表于 02-02 16:46 ?9423次閱讀
    <b class='flag-5'>關聯</b><b class='flag-5'>規則</b>挖掘——<b class='flag-5'>Apriori</b><b class='flag-5'>算法</b>的基本原理以及改進

    十大經典數據挖掘算法Apriori

    關聯分析是一類非常有用的數據挖掘方法,能從數據中挖掘出潛在的關聯關系。Apriori算法是一種最有影響的挖掘布爾關聯
    發表于 02-04 09:37 ?3735次閱讀
    十大經典數據挖掘<b class='flag-5'>算法</b>—<b class='flag-5'>Apriori</b>

    從五個方面讓你了解人工智能算法中的Apriori

    Apriori算法是經典的挖掘頻繁項集和關聯規則的數據挖掘算法,也是十大經典機器學習算法之一。
    發表于 07-05 14:25 ?2375次閱讀
    主站蜘蛛池模板: 亚洲综合色婷婷中文字幕| 日本午夜片成年www| 欧美福利视频网| 午夜香蕉视频| 69日本xxⅹxxxxx18| 四虎影院在线播放| 高清成人| 91无毒不卡| 婷婷六月在线| 美欧毛片| 欧美精品一级| 日日做夜夜做| 800免费资源网| 性欧美视频| 寡妇一级a毛片免费播放| videofreeones性欧美另类| 一级特级片| 国产精品亚洲色图| 2021精品国产综合久久| 午夜欧美福利| 99日精品欧美国产| 国产无套视频在线观看香蕉| 国模张文静啪啪私拍337p| 男人透女人超爽视频免费| 欧美夜夜操| 一个色在线视频| 成年色黄大色黄大片 视频| 欧美三级网址| 欧美一级精品| 美女被免费网站91色| 亚洲美女精品| 2021国内精品久久久久影院 | 国产做爰一区二区| 狠狠色综合久久婷婷| 97精品久久天干天天蜜| 日本最顶级丰满的aⅴ艳星| 视频一本大道香蕉久在线播放| 综合亚洲色图| 91极品反差婊在线观看| 天天躁夜夜躁狠狠躁2021西西| 精品特级毛片|