[問題] 爬蟲到的連結 寫入CSV後 每個字元被分開

看板Python作者時間7年前 (2018/01/29 14:26), 7年前編輯推噓1(100)
留言1則, 1人參與, 7年前最新討論串1/1
大家好, 第一次嘗試寫爬蟲 目前成功從資料庫抓取之後要真正爬蟲的連結, ------------------------------------------------------------------------ urls = ['http://www.fishbase.org/Topic/List.php?group=9&start=0', 'http://www.fishbase.org/Topic/List.php?group=9&start=500', 'http://www.fishbase.org/Topic/List.php?group=9&start=1000'] f = open("link.csv","w", newline='') data = [] for url in urls: web_data = requests.get(url) soup = BeautifulSoup(web_data.text, 'html.parser') splink = soup.find('table') for alink in splink.find_all('a'): data = [alink.get('href')] w = csv.writer(f, delimiter="\t") w.writerows(data) f.close() -------------------------------------------------------------------------- 但是要把連結write成csv後,連結網址每個字被分開在不同col, https://imgur.com/a/5x8Rf 後來google到, 在csv.writer()裡加入 delimiter="\t",寫到CSV 連結的字元就不會分開, 但是把連結複製貼到記事本,其實字元還是被分開 https://imgur.com/a/iTFnJ 所以把匯入同一個CSV檔在用python打開,連結就會變成 https://imgur.com/a/2Nl1A 請問該怎樣才能把讓每個連結是一個字串? 謝謝 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.70.50 ※ 文章網址: https://www.ptt.cc/bbs/Python/M.1517207197.A.A86.html ※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:35:29

01/29 14:42, 7年前 , 1F
w.writerow(data) 就好?
01/29 14:42, 1F
WOW~~我把w.writerows(data) 改成 w.writerow(data), 問題就解決了@@ 太神奇了~~~大感謝~~~ ※ 編輯: drunkofwind (140.112.70.50), 01/29/2018 14:47:28
文章代碼(AID): #1QRhwTg6 (Python)
文章代碼(AID): #1QRhwTg6 (Python)