‧
阅读时间:5分钟
如何丰富客户联系和组织数据
郑智
‧ 5分钟阅读
分享此文章
我们希望对收集到的数据进行更多了解,因此我们寻找数据丰富服务。这些公司可以通过更多细节来丰富您的数据。例如,给定一个域名,第三方丰富服务可以提供该域名的相关公司名称、其规模、行业等信息。
数据丰富是成长型公司的典型做法,当然也是大型公司的做法。但在您购买丰富服务之前,您应该有一个已知的问题集要解决(或要实现的目标),丰富服务可以帮助解决。
- 为了与客户保持联系。丰富服务可以提醒我们有关可能影响我们关系的联系人职位变动。例如,如果联系人在公司内部或外部转换到另一份工作,我们可能希望联系他们表示祝贺,并确保我们与接替关系的人保持联系,以免重要产品通讯丢失。
- 为了更好地了解组织规模和行业,这有助于我们定制我们的营销和产品努力,确保我们构建的 Metabase 能够解决这些细分市场面临的问题。
服务提供商评估
数据丰富化服务提供商数量之多令人惊讶,每个提供商都有自己的优缺点。虽然我们考虑了各种LinkedIn数据导出提供商,但我们决定不使用它们,因为我们不应该在我们的数据仓库中存储这类数据。我们也未评估Clearbit,因为它已经不再作为独立服务提供。
简述:针对我们的用例,Apollo.io 提供了最佳的综合覆盖范围、定价和功能。
标准 / 提供商 | LinkedIn Sales Navigator | Crunchbase | Lusha | Apollo | CommonRoom |
---|---|---|---|---|---|
工作历史/LinkedIn个人资料 | 最佳选择,但仅限UI访问;API访问有限 | 不可用 | 不可用 | 良好/看起来较新 | 大多数良好,但一些最近的工作变动缺失 |
公司信息,如行业规模、行业等 | 良好。搜索仅限UI;API访问有限 | 良好,但100个最近联系人中约70%(高/中)到80%(低置信度)的覆盖率 | 尚可。100个最近联系人中覆盖率约为26% | 80%的覆盖率非常出色,针对100个最近联系人使用域名匹配 | 主要针对公司规模,但行业信息零散,针对最近100个联系人的覆盖率约为60% |
人口统计信息,如职位等 | 出色/LinkedIn个人资料上的所有信息。搜索仅限UI;API访问有限 | 仅限选定关键人物,如高管 | 尚可。针对最近100个联系人的覆盖率约为26% | 针对100个最近联系人的姓名有60%的覆盖率,针对职位/历史有50%的覆盖率 | 是,但:1. 针对组织覆盖率约为60%,针对职位名称覆盖率约为30%,基于100个最近联系人 |
导出到数据仓库 | 仅与CRM集成,如Salesforce或HubSpot,功能有限(CRM各有不同) | 企业计划支持数据集下载。API可以进行精确的域名/名称搜索和模糊搜索。每分钟200次调用,1000个限制 | 通过UI或API进行CSV上传/下载 | 通过API或CSV(UI)进行联系人丰富化速度较慢,每次调用0.5秒——即每10,000条记录需要1.4小时。API提供批量下载,每次10条 | 仅企业计划支持定期/定制导出,否则通过UI手动操作。任何在筛选/浏览屏幕上可见的字段都可以通过UI导出 |
费用 | 核心:每人每年960美元,带CRM集成的高级版:每人每年1600美元 | API:每年10,000美元,享有30%的即时购买折扣。所有300万+公司的CSV导出:50,000美元,享有50%的即时购买折扣 | 针对100,000个联系人的年费用约为20,000至25,000美元 | 通过API进行10,000次丰富化每月400美元。每条记录4美分。每月100,000次丰富化3,000美元。每条记录3美分。更多计划选项 | 根据联系人和功能数量提供多种计划,从免费到企业版:1. 免费版最多500个联系人/50个组织 2. 初级版每月625美元,最多35,000个联系人。3. 团队版每月1,250美元,最多100,000个联系人 4. 企业版具有定制定价和导出到数据仓库功能。每年50,000美元以上 |
持续丰富化
选择了服务提供商后,我们使用dlt和Apollo.io的API每小时基于优先级丰富新联系人——优先更新新联系人,然后更新现有联系人等。
以下是一个Python代码片段,
- 从我们的数据仓库中获取优先级联系人列表的电子邮件列表
- 调用Apollo的API丰富这些联系人。
- 然后将丰富后的信息保存回数据仓库中的另一个表中。
def enrich_contact(self, postgres_connect_string, to_schema):
pipeline = dlt.pipeline(pipeline_name='enrich_contact', destination='postgres', dataset_name=to_schema,
credentials=postgres_connect_string)
@dlt.resource(write_disposition='merge', primary_key='email')
def enriched_contact():
with pipeline.sql_client() as psql:
with psql.execute_query("select email from prioritized_contact") as cursor:
emails = cursor.fetchall()
for (email,) in emails:
enriched = self.people_match(email) # Call Apollo's "people/match" API
yield enriched['person']
print(pipeline.run(enriched_contact))
自助式分析建模
我们将丰富后的数据,例如组织规模和行业,添加到我们的客户和联系人模型中。对于组织规模,我们将数据分为几个类别以简化团队的分析。
, case
when estimated_employees <= 50 then 'Micro'
when estimated_employees <= 200 then 'Small'
when estimated_employees <= 1000 then 'Medium'
when estimated_employees <= 10000 then 'Enterprise'
when estimated_employees > 10000 then 'Mega Enterprise'
end as organization_size
在我们的联系人模型中,我们还添加了left_company_at
字段来表示联系人何时离开客户组织。该字段使我们可以轻松找出我们应联系哪些组织,以便他们能够了解重要产品通讯的最新情况。
关于数据丰富化的最终思考
数据丰富化已经证明非常有价值。从丰富后的数据中得出的一个有趣见解是,我们的客户来自从微型到大型组织的混合体。我们的团队已经使用这些数据更好地了解我们的客户并监控职业变动。
我们现在正在讨论如何将丰富化用于其他目的,例如创建理想客户档案以充分利用我们的营销努力。
但丰富化不是免费的,因此我们将继续评估我们获得的价值与成本之间的相对关系,并相应地进行迭代。我们希望这篇帖子能帮助你选择一个适合你需求的丰富化服务。