无货源采集商品方法
# 一、寻找对标店铺
抖音或者淘宝等平台搜索"女装"或者"服饰",找到新店开业的女装店铺,作为对标店铺
简单举例(抖店):
鑫信达时尚女装专营店、HTKD略誉卓服装专卖店、HTKD解霞服装专卖店、创意的礼物、思枫女装专营店
静云轩服装、富集女装专营店、CRL女装、景棠女装专营店、丰欣源女装专营店、福施时尚女装专营店
跃未来女装集合店、HTKD佳歆庄女装专卖店、帆巍女装专营店、卡宏轻奢女装专营店、旭冉鸿女装专营店
雄靖日潮流女装专营店、立始智休闲专卖店、宸雪潮流女装专营店
...随便搜一堆
2
3
4
5
6
7
8
9
# 二、搬运产品
用拼多多批量扫描对标店铺或者东方精选软件里的产品,找到对应产品中销量高、评论较多、非预售非品牌、主图无水印的商品卡,复制分享链接并汇总到Excel表格,一天找1000-2000个
小技巧:选品不要考虑太多,符合要求就行,后续上架后可以慢慢优化
可以使用脚本增加效率:手机和电脑下载微信输入法并跨端匹配,先安装好Python环境,然后在命令行窗口安装所需的库
python -m pip install pyautogui pyperclip,新建文本文档并粘贴以下代码,然后文件重命名为跨端自动粘贴.py,双击运行脚本即可:
点此查看脚本代码
import pyautogui
import pyperclip
import time
import re
def paste_and_enter():
pyautogui.hotkey('ctrl', 'v')
pyautogui.press('enter')
def save_file():
pyautogui.hotkey('ctrl', 's')
def is_strict_single_pdd_url(content):
"""严格检查剪贴板内容是否仅包含单个拼多多链接"""
content = content.strip()
# 正则规则:
# 1. 必须以 https://mobile.yangkeduo.com/ 开头
# 2. 后面不能包含 https://(防止多个URL粘连)
# 3. 不能有空格或换行符
pattern = r'^https://mobile\.yangkeduo\.com/[^?\s]+(\?[^\s]+)?$'
# 额外检查:确保整个字符串没有多个 "https://"
if content.count("https://") > 1:
return False
return bool(re.fullmatch(pattern, content))
def main():
print("剪贴板监听程序已启动,仅当复制 **严格单个** 拼多多链接时执行操作。")
print("按 Ctrl + C 停止程序。")
last_clipboard_content = pyperclip.paste()
try:
while True:
current_clipboard_content = pyperclip.paste()
if current_clipboard_content != last_clipboard_content:
if is_strict_single_pdd_url(current_clipboard_content):
print(f"✅ 检测到单个拼多多链接,执行操作:{current_clipboard_content}")
paste_and_enter()
time.sleep(0.5)
save_file()
print("粘贴+保存操作已完成。")
else:
if "https://mobile.yangkeduo.com" in current_clipboard_content:
print("⚠ 检测到多个拼多多链接或其他非法格式,跳过操作。")
else:
print(f"❌ 剪贴板内容不是拼多多链接,不执行操作:{current_clipboard_content[:50]}...")
last_clipboard_content = current_clipboard_content
time.sleep(0.5)
except KeyboardInterrupt:
print("程序已停止。")
if __name__ == "__main__":
main()
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
打开 Excel 选中单元格,此时只要手机复制链接,会自动同步到电脑剪贴板,脚本检测到剪贴板内容变化,自动粘贴、回车并保存,即可快速复制链接到Excel表格中,减少选品步骤,提升效率。
# 三、链接解析获取商品ID
原链接格式:https://mobile.yangkeduo.com/goods.html?ps=CBCeMeqp1O
访问链接获取跳转链接:https://mobile.yangkeduo.com/goods.html?goods_id=496071996415
其中https://mobile.yangkeduo.com/是PC端拼多多网站域名,https://mobile.yangkeduo.com/goods.html是拼多多商品详情页,goods_id=496071996415是商品ID,通过商品ID可以获取商品详情,包括标题、价格、主图、SKU等信息
可以安装哈士奇插件,访问原链接,进入跳转页面,鼠标放在在标题处可以复制到解析链接,然后粘贴到excel对应记录行,需要一条条操作
也可以使用脚本,自动读取excel链接,通过HTTP请求批量访问原链接,获取跳转链接,通过拼接获取解析链接
# 附加:拼多多链接解析脚本
提示
该脚本采用HTTP请求,无需浏览器无需登录拼多多账号,可自动读取链接并批量解析链接,自动填充表格。
如果嫌麻烦,可以安装个专业打野插件、大魔王多多解析工具或者其他解析工具。
一、准备环境
1.安装 Python 环境 Python 安装方法可参考:Python安装教程 (opens new window)
2.安装依赖库
- 按住
Win+R,输入cmd并回车,打开命令窗口 - 分别输入以下命令:
python --version- 如果看到版本号说明 Python 安装成功
python -m pip install pandas requests - 等待安装完成即可关闭
- 如果看到版本号说明 Python 安装成功
3.新建记事本,将以下代码复制到文件中
import pandas as pd
import requests
import time
import os
import re
FILE_PATH = "拼多多链接.csv"
SAVE_INTERVAL = 10
def get_real_url(url):
"""请求跳转链接,提取 goods_id 并拼接为标准链接"""
try:
headers = {
"User-Agent": "Mozilla/5.0"
}
response = requests.get(url, headers=headers, timeout=10, allow_redirects=True)
# 用正则提取 goods_id 的值
match = re.search(r'goods_id=(\d+)', response.url)
if match:
goods_id = match.group(1)
return f"https://mobile.yangkeduo.com/goods.html?goods_id={goods_id}"
else:
return "ERROR::未找到goods_id"
except Exception as e:
return f"ERROR::{e}"
def main():
if not os.path.exists(FILE_PATH):
print(f"未找到文件 {FILE_PATH}")
return
try:
df = pd.read_csv(FILE_PATH, header=None, encoding='utf-8-sig')
except UnicodeDecodeError:
print("⚠️ utf-8-sig 编码读取失败,尝试用 gbk 编码读取...")
try:
df = pd.read_csv(FILE_PATH, header=None, encoding='gbk')
except Exception as e:
print("❌ gbk 编码读取也失败,文件可能有问题。错误信息:", e)
return
total = len(df)
print(f"共加载 {total} 条记录")
# 确保至少有3列(A, B, C),不足补空列
while df.shape[1] < 3:
df[df.shape[1]] = None
count = 0
for i in range(total):
row_num = i # Excel 对应第几条链接
url = str(df.at[i, 0]).strip() # A列:原始链接
existing = str(df.at[i, 2]).strip() if pd.notna(df.at[i, 2]) else ""
# 跳过已处理的(C列有以 http 开头的内容)
if existing.startswith("http"):
continue
if not url.startswith("http"):
continue
redirect = get_real_url(url)
if redirect and not redirect.startswith("ERROR::"):
df.at[i, 2] = redirect # 写入 C 列
print(f"[第{row_num}条] OK: {url} -> {redirect}")
else:
print(f"[第{row_num}条] 失败: {url} → {redirect.replace('ERROR::', '')}")
count += 1
time.sleep(0.5)
if count % SAVE_INTERVAL == 0:
df.to_csv(FILE_PATH, index=False, header=False, encoding='utf-8-sig')
print(f"💾 已保存进度(第 {row_num} 条)")
df.to_csv(FILE_PATH, index=False, header=False, encoding='utf-8-sig')
print("✅ 全部处理完成并保存")
if __name__ == "__main__":
main()
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
保存后将记事本重命名为pdd_link.py
二、使用说明
1.打开存有拼多多链接的表格,文件 → 另存为 → 格式选择“CSV UTF-8 (逗号分隔)(*.csv)”,保存为拼多多链接.csv文件
2.将pdd_link.py和拼多多链接.csv放在同一目录下
3.双击pdd_link.py运行脚本,等待脚本自动解析完成
三、注意事项
1.脚本会自动保存进度,每处理10条记录会保存一次,不怕以外停止
2.每次启动脚本,会从扫描记录,跳过非链接内容或已解析的链接,从未解析的链接开始解析
3.脚本运行过程中需关闭拼多多链接.csv文件
4.执行完成后A列为原链接,C列为解析链接