本期是关于CSDN 必问 (biwen.csdn.net)的内容,欢迎评论
文末,文中插入有 小姐姐 img(附py代码,1.49G) + coding资料 哟~~~
你看到这篇很可能是在提问。推荐加qq帮解决
作者 汪慕零paperb qq3461896724 精通py;C/c++ 有问必答
文章是 抨击 必问的(见导读,标题)。希望转发,多一个人看到就多一份了解(必问关了吐槽吧,没法评价,只能发博
[创作不易,希望读完全文,这事关所有回答者的利益,回答者不满意,提问者又怎能得到耐心细致的满意答复!]作为用户,我们有权利伸张正义!
可以把文章链接转发biwen.csdn.net.的问题上
或者自已的blog
(阅读>150 或 点赞>5 出下期
简介:
相信"金山词霸,金山打字通"许多人都用过,而金山副总监 创办了 "全球最大中文IT技术平台,成就一亿技术人"的CSDN(Chinese software dev net)
CSDNblog 十分好,个人认为接近cnblogs(博客园,www.cnblogs.com)了,但是,他的biwen影响了不知多少人的利益...(这是客观的,见下文)
真的吗??? ???
(希望早日完善...
附: 一篇 哲学:<<心内求法与心外求法>>https://www.cnblogs.com/p2blog/p/readingheart.html
一篇<<逃离CSDN>>https://www.cnblogs.com/p2blog/p/outofcsdn.html
-----------转发--------评论-------加我--------帮你解决------------(点赞/,mark一下!)
简介:必问是继 ask.csdn.net 后大约于2019年末开发的一个 用人民币作为赏金的提问平台
[导读:]
- CSDN必问赏金流向何方
- CSDN必问偷偷做的手脚
- CSDN必问靠谱吗
- 关于钱于回答的平衡问题:一美元拍卖骗局
简单说明(抓重点):<对照问题>
1.赏金:必问会将采纳的存入答题者的"CSDN钱包"(不代表"可提现"哦[坏笑] 这可以是非法集资;没找到满意答案/忘记采纳 就被CSDN赚了<<<划重点!!!(大约25%的问题无满意回答,30~60%未采纳,可参见网址) (https://biwen.csdn.net/question/2192)
2.这家伙偷做的手脚:在2020 4月关了"吐槽吧"的"吐槽"(吐槽BIWEN)的功能,&禁用了"用未提现的赏金直接提问"权限,设置赏金下限10元(本来1元。并取消了追加赏金功能。(只能再10元提问
3.靠谱吗:简单问题还基本上可以,一旦要一段代码&冷门知识 需要一定信任(比如20分钟解决不了的问题) 就没保障了(可以看看首页多少问题未采纳
4.可以让你不断追加参考百科https://baike.baidu.com/item/%E4%B8%80%E7%BE%8E%E5%85%83%E6%8B%8D%E5%8D%96%E9%99%B7%E9%98%B1/762398
详细解释:
1.
[收益中心https://i.csdn.net/#/wallet/atWithdrawal/cashout] 的截图,吓人吗
https://biwen.csdn.net/question/2192 我吐槽过这种情况:
要提供这么多隐私,给人工审核("说是一个月内提现,最少半个月"),不想提现了...
webmaster5@csdn.net
发给 paperboat2020@foxmail.com, 李博然, kefu
详细信息2020-- :
尊敬的用户您好! 、本邮箱都是人工回复的;
、申请提现流程相关产品还是设计中,会尽快完成的;
、必问提现版块是真的正在做;
、8月前可以设计好,应该快了,我也在催相关负责人呢。
额...有图有真相
毕竟CSDN 必问没广告啊
他给我提现算我输
(负责人 焦杨 加我微信,说是提现的,但投诉了我在必问骚扰。我被。。。了,现在我又开了一下个wx(推荐加我q3461896724 可以解答问题。
//这算"非法集资"吧. 而且没有在醒目位置说明,这也是我发博揭密的reason之一
2.必问做的手脚:
"关闭问题"后,并不能提问:满100元余额才能提现,在提问
本来是可以直接提问的.但是...biwen偷偷关了这个功能,就在2020.3-2020.4之间
你可以试试...
**第二个手脚**:
吐槽吧不能吐槽了,这也是我发博的原因.(不然直接吐槽了
会一直"提交中",最新的也是"1个月前"了
这个你也可以操作(没准哪天biwen看到又开了),欢迎评论
看文字."一个月前"-"两个月前"有不少"吐槽",为社么现在没了...因为.关了(搞得像用户评价很好一样)
3.你自己可以体会,到底是啥样的平台
4.就是如果没有答案,你付了赏金,为避免沉默成本(白花钱),你会再加赏金提问.但是其实可能问题只值10元,没人回答是平台的问题
然而越亏越多
{注:
愿biwen越做越良心
最后推荐另一个良心平台(没在搜索平台广告):https://segmentfault.com/ 就是比较麻烦,体验没CSDN必问好.
其他都 不火 没人回答...>>>被两家垄断了
本文https://www.cnblogs.com/p2blog/p/12939809.html持续更新
另有一篇
"关于必问的赏金提现"&客服的回应(不满意)&必问bugs的文章
https://www.cnblogs.com/p2blog/p/12806866.html
}
另附赏金提现的摘要:
---------------------------------------------------------------------------=================================================================--------------------------------
[收益中心https://i.csdn.net/#/wallet/atWithdrawal/cashout]
能提问才怪呢!
还不是不行?! 现在不能用 它 提问了
我可是没提现
....................................
(写博客的页面)
钱破200时CSDN找理由冻我
https://blogdev.blog.csdn.net/article/details/105664512
1要300!提完300就不能在提了,相当于合理安排的话CSDN手里一直有300!
2只有最多5天提现,还可能顺延
3还要半个月,而且也没给提问者退款的按钮啊!
坑!
-------------------------------------------------------------------------------------==============================================--------------------------------------------------------
https://www.cnblogs.com/p2blog/p/believeMe.html
希望大家多多评论,+1 ! (觉得好就转发到自己的博客吧
回答者不满意,自然容易无心回答.所以这和提问者息息相关.
[觉得好,就转发&评论写下你的看法吧]
谢谢...
(作者QQ3461896724,精通python,C/C++,欢迎提问
其实。微信支付各位可以参考一下红包作问题的赏金~[坏笑]
注:客服链接(人工的,目前至少有8个
QQ客服id:
(
再来一遍:
强烈建议转发:理由如下
1.全部属实:可以自己尝试,注:https://biwen.csdn.net/question/2192(新标签页打开),不存在"造谣"
2.必问的人们许多不知道,导致利益收到侵害
3.我是受害者.你也间接的成为了.
4.转发很简单,发链接就行.
5.多一个人看到就多一份了解(必问关了吐槽吧,没法评价,只能发博
欢迎评论!!!
注:
资料:
注意 滚动条 很小只是"美女图片"其中的一个
1.49G 不骗你 (用代码实现的,因为百度网盘 会被封,又慢.所以qq3461896724直接给你)
(python代码:请先建立D:/Dituba 文件夹 运行 ,下载 requests(pip install requests),非攻城狮勿扰~
# -*- coding:utf-8 -*-
import requests
from lxml import etree
import os
import time class PictureSpider: # 分类爬取所有图片
def __init__(self):
self.url = "https://www.ituba.cc/"
self.category = {} def get_category(self):
response = requests.get(self.url)
html = etree.HTML(response.content.decode())
general_classification = html.xpath("//div[@class = 'l tionav fs14 b']/ul/li")[1:] # 注意标签的选择范围
for i in general_classification:
name = i.xpath("./h2/a/text()")[0]
category_names = i.xpath("./div/h3/a/text()")
category_urls = i.xpath("./div/h3/a/@href")
category_urls = ['http://www.ituba.cc/' + i for i in category_urls]
url_data = {m: n for m, n in zip(category_names, category_urls)}
self.category[name] = url_data def get_page_url(self):
for i in self.category:
for j in self.category[i]:
url = self.category[i][j]
response = requests.get(url)
html = etree.HTML(response.content.decode())
# 获取页数,构造每一页的URL列表
page_1 = url + "index.html"
page_format = page_1.replace('index', 'p{}')
pages = eval(html.xpath("//div[@class = 'pages']/ul/a/text()")[-2])
page_url_list = [page_format.format(i) for i in range(2, pages + 1)]
page_url_list.insert(0, page_1)
self.category[i][j] = page_url_list def get_picture_url(self):
for i in self.category:
for j in self.category[i]:
name_url = {}
for page_url in self.category[i][j]:
response = requests.get(page_url)
html = etree.HTML(response.content.decode())
picture_urls = html.xpath("//div[@id = 'NewList']//img/@src")
picture_urls = [i.replace('//t1.ituba.cc/', 'http://222.186.12.239:20011/') for i in picture_urls]
picture_names = html.xpath("//div[@id = 'NewList']//a[@class = 'PicTxt']/text()")
name_url.update({name: url for name, url in zip(picture_names, picture_urls)})
self.category[i][j] = name_url
# print(self.category) def get_content(self, url):
response = requests.get(url)
content = response.content
return content def save_picture(self, file_name, content):
with open(file_name, 'wb') as f:
f.write(content)
f.close() def run(self):
self.get_category()
self.get_page_url()
self.get_picture_url()
print(self.category)
for category1 in self.category:
file_category1 = 'D:/Dituba' + '/' + category1
os.mkdir(file_category1)
for category2 in self.category[category1]:
file_category2 = file_category1 + '/' + category2
os.mkdir(file_category2)
for picture_name in self.category[category1][category2]:
try:
content = self.get_content(self.category[category1][category2][picture_name])
except:
continue
else:
try:
file_name = file_category2 + '/' + picture_name + '.jpg'
self.save_picture(file_name, content)
except:
continue
print("{} 下载完成".format(file_category2))
time.sleep(5) #注意:程序运行后需要几分钟先获得所有图片的URL列表,然后才能开始下载
if __name__ == '__main__':
spider = PictureSpider()
spider.run()
q群: 754827260 批量给
很多的 文字版 电子书 qq3461896724 直接给
(点赞20+/阅读100+ 更新资源
(觉得我好就 点赞 ,觉得CSDN 必问 不好 就
//CSDN必问,你要单挑还是群.欧 ,单挑是你单挑我们, 群.偶是我们 群ou 你!
(给作者喝咖啡Fighting with me!~~~
wx:
https://www.cnblogs.com/p2blog/p/why.html 本文链接,觉得好,发朋友圈
(可以点"首页",看 更多 推荐
\
所以:我推荐大家提问前先add大神qq
:
四十2778829758
piaoyiren577976846
汪慕零3461896724
wx:号
wepaperboat