爱看书吧

爱看书吧 > 其他小说 > > 正文 第167章 “歪打正着”的验证环节

正文 第167章 “歪打正着”的验证环节(第4页/共5页)

本站最新域名:m.ikbook8.com
老域名即将停用!

底杜绝机器人,而是要在真人用户可以接受的程度上,最大限度的减少机器人的通过率。

    在这种情况下,我们其实完全不需要一种能彻底区分人类与机器的手段,只需要让机器识别验证码的成本,提升到机器使用者不好负担的程度就行了。

    而从这点出发,只要验证码成功逼迫机器人开始使用伪随机操作降低效率,其实就已经成功了一半了。

    ps1标注农场,由人类识别并为事件和物品标注机器可以分辨的标签,以帮助ai学习的公司。

    这是一种纯粹的劳动力密集型产业,是当前很多ai产品背后最脆弱的基础,更是东大ai产业能快速发力的一个关键因素。

    即面对较复杂的事务,超出字面意思的1+1=2,这种人类已经可以给ai提供成熟的公式体系的问题。

    这种人类可以通过开销更小的程序直接解决的问题,也是人类最需要ai解决的问题时。

    我们依然无法让ai像自然人一样直接学习“抽象”的自然界,必须通过人类的反刍才能使其渡过初学者阶段,而这种人类反刍过的数据,被称为ai的训练集。

    在最初级别的ai训练中,想要ai能正确分辨与训练集同源的检测集(相当于ai是否训练成功的考试题),甚至会需要10倍甚至更多倍数量于检测集的训练集(比人类为了通过考试刷题库的效率还低)。

    而这一训练量与分辨能力的比值,即使是加强型机器学习的算法不断提升的当下,也很难突破1:1。

    所以现在很多ai公司,最重视的就是可以被ai训练使用的训练集。

    各种ai企业会在用户协议中添加,允许其使用用户在使用产品时被动反刍出来的数据的条款,就是因为这一点。

    当然,由于训练集的重要性,研究者一直在试图绕过人类反刍这一事实上是当前ai发展最大瓶颈的过程。

    其中的方法很多,包括给ai提供基础的规则后,让ai自行生产可以用来学习的训练集,比如第二代阿尔法狗,通过自己和自己对弈生产棋谱,来学习围棋下法的方案。

    以及通过训练一个通用性的,可以理解人类既有文献的大模型,为其他专业模型生产训练集等。

    而后者正是现在所谓ai语言大数据模型铺天盖地的原因之一。

    只是这种试图一劳永逸的为专业ai生成一个,类似于汇编语言在编程语言和机器语言之间作用的大模型的难度,显然很高。

    并且这一技术路线,不止面临技术问题,还面临很多政治、伦理问题。

    即相比专业化的ai生产工具,存在真专业壁垒保障安全,这类直接获取文字这一代表文明基础的ai,会更容易产生“天网”问题。

    因为ai训练的本质,是一种黑箱化的随机归类过程,人类虽然暂时无法彻底理清训练过程,但依然可以抓到一些既有的规律。

    这会让这类ai在事实上受到训练集的影响,并产生所谓“人格”倾向——和很多此类ai对话,使用一些技巧就可以让这些ai对于一些错误观念深信不疑。

    而这背后意味着什么,很多科幻电影已经给出了答案。

  &n
\/阅|读|模|式|内|容|加|载|不|完|整|,退出可阅读完整内容|点|击|屏|幕|中|间可|退|出|阅-读|模|式|.
『加入书签,方便阅读』
-->> 本章未完,点击下一页继续阅读(第4页/共5页)