如果說Ellis的那本《增長黑客》是“增長黑客”的導論,那曲卉的這本就是“增長黑客”的入門書。有宏觀的增長知識,有很多一線的增長經(jīng)驗,也不乏同行的經(jīng)驗,是一本好書。建議對增長、數(shù)據(jù)導向感興趣的朋友,都可以去讀這本書,只有200多頁。
以下僅分享對我有啟發(fā)的點,其中會融入我自己的觀點。
1、一個產(chǎn)品往往有許多功能,它們設計的目的、實現(xiàn)的功能各不相同:流量、變現(xiàn)或是作為基礎的留存。如果整個產(chǎn)品處于穩(wěn)住留存的階段,那通過跑SQL拿到用戶的留存/卸載路徑,發(fā)掘用戶在使用了某個功能后,留存會上升,那迅速把這個功能滲透擴大就能獲得更好看的數(shù)據(jù)。
2、兩個產(chǎn)品文案的優(yōu)化思路:
- 讓用戶清晰感知到積累的作用。讓他感受到如果堅持使用某個功能,每天都能有所得到,經(jīng)年累月后就會獲得很好的東西,而不是一開頭就把大禮放在很遠的地方。
- 強調(diào)存在感,而不是讓用戶只是在與冰冷的機器進行交互。比如,告訴用戶有多少人也同樣在使用這個功能。這個點在社交應用與游戲中比較多見。
3、任何一個領域都存在“虛榮數(shù)據(jù)”。在互聯(lián)網(wǎng)里,可能是累計安裝量,在現(xiàn)實中,可能是每一個中國人撒泡尿,就能淹死很多島國這類的民間智慧。這些數(shù)據(jù)在提升士氣方面或許有用,但是在項目內(nèi)部,更應強調(diào)類似北極星指標的關鍵數(shù)據(jù),不要浪費精力。
4、要強調(diào)利潤增長模型/公式。在很多公司,其實就是ROI(投資回報率)。曲卉在這里講了一個實際例子:
- 一次性的產(chǎn)品推廣或拉新,短期效果明顯,但半衰期也短;
- 提高用戶的激活率,半衰期較長,但對長期增長影響較大。
5、必要時,要嘗試繪制用戶旅程,記錄一個用戶從對產(chǎn)品一無所知到體驗到產(chǎn)品的核心價值。這在firebase里可能就是stream,你能看到他們怎樣體驗你的產(chǎn)品。
6、根據(jù)產(chǎn)品的實際情況,未必要做大而全的積分體系??梢試L試一些見效快,用戶理解成本低的獎勵,比如看一個激勵視頻,就能獲取1天的VIP試用時間。
7、不同階段用戶決策的心理地圖。很干貨,這個我直接粘圖。
9、現(xiàn)實中有很多流量渠道,但其中用戶通過個人使用,自發(fā)推薦而來的用戶質(zhì)量較高。
10、如果是工作在一線的產(chǎn)品經(jīng)理,應該會對這個增長框架有很強的共鳴。
12、在整個漏斗中,如果開頭的階段提升一點點,很容易就會傳遞到后面的階段。
13、用戶引導對留存有著出乎意料的作用。
14、除諸如A/B testing之類的定量研究,問卷類的定性研究也十分必要。因為往往用戶關鍵行為的動機可能會更加深層,并非表面意義上的show、click事件。
15、用戶在使用每個產(chǎn)品時,都有一個耐心指數(shù)。請務必在用戶的耐心降為0前,體驗到產(chǎn)品的關鍵功能。
16、留存(尤其是長期留存)的好處:復利效應。
- 使用戶的LTV升高;
- 使投放團隊有預算測試更長期、更貴的增長渠道;
- 帶來更多的老用戶,推薦更多的老用戶。
17、留存對于用戶分層方面的作用:
- 短期就是激活;
- 中期就是完成關鍵行為,發(fā)現(xiàn)產(chǎn)品中的更多價值;
- 長期就是反復使用某個功能。
18、留存率與參與度:
20、用戶粘性=用的越久好處越多+用的越多離開的成本越高。
21、用戶行為=動力能力觸發(fā)。
22、獎勵隨機化,會激發(fā)用戶的參與度。
23、推送有三大件:
- 覆蓋面;
- 相關性;
- 頻率。
24、統(tǒng)計,尤其是A/B testing要注意統(tǒng)計的顯著性,避免隨機誤差。
25、IOS做推送,收益很大:
- 新用戶留存;
- 老用戶留存;
- 靜默用戶回流。
26、增長的加法與乘法。
作者:安徹大污師
首席增長官CGO薦讀:
- 《硅谷增長專家 Ian Thiel 來華,首次揭秘數(shù)據(jù)驅(qū)動增長的道與術》
- 《硅谷增長團隊現(xiàn)狀:來自硅谷獨角獸副總裁的訪談》
- 《曝光:楊冪微博粉絲破億背后,是娛樂圈最囂張的造假潛規(guī)則!》
更多精彩,關注:增長黑客(GrowthHK.cn)
增長黑客(Growth Hacker)是依靠技術和數(shù)據(jù)來達成各種營銷目標的新型團隊角色。從單線思維者時常忽略的角度和高度,梳理整合產(chǎn)品發(fā)展的因素,實現(xiàn)低成本甚至零成本帶來的有效增長…
本文經(jīng)授權(quán)發(fā)布,不代表增長黑客立場,如若轉(zhuǎn)載,請注明出處:http://m.gptmaths.com/quan/14953.html