随着人工智能技术的广泛运用,加强知识图谱技术创新,成为了无数科技巨头的重要功课。其中,被称为知识图谱“世界杯”的OGB,是广大科技巨头检验科技实力的“炼金石”。

近期,在众多科技巨头争相角逐的OGB挑战赛中,度小满自创的TranS模型击败一众对手拿下第一,展现了其在前沿技术领域的雄厚实力。

如果说ImageNet改变了计算机视觉,那么在知识图谱领域能够拥有与之分量匹敌的数据集就非OGB(Open GraphBenchmark)莫属。仅仅三年时间,OGB-wikikg2就被冠以知识图谱“世界杯”的荣誉。

在近期最新一轮的知识图谱实力“角逐赛”中,度小满团队凭借自创的TranS模型占据榜首。与之同台竞技的对手包括深度学习三巨头、图灵奖得主LeCun、Yoshua Bengio坐镇的MetaFAIR实验室和MILA实验室,还包括360、蚂蚁金服、第四范式等耳熟能详的国内大厂。

那么度小满这次夺冠的OGB挑战赛,到底是什么来头?为何会引得全球头部玩家都聚焦于此同台竞技?

OGB挑战赛由斯坦福大学于2019年发起,是国际公认的知识图谱基准数据集代表,它的提出是为了促进可扩展、可重复的图机器学习(ML)研究,赛事具有质量高、规模大、场景复杂、难度高等特性。此次度小满夺冠的OGB-wikikg2是OGB三大类任务之一,这项任务,需要在1700多万个事实三元组中精准预测实体间的潜在关系。

这项赛事已经成为了众多科技巨头、科研院所和高校团队试验技术成果的试金石。例如全球顶级人工智能实验室MetaFAIR,也会选择OGB-wikikg2来展示自身的实力。FAIR成立于2013年,可谓是汇聚了AI界的顶级人才,图灵奖得主、深度学习三巨头之一的YannLeCun坐镇该实验室。其它大牛还有VC维和SVM的缔造者Vladimir Vapnik、提出随机梯度下降法的LéonBottou,做出高性能PHP虚拟机HHVM的作者们。当然还包括像何恺明、田渊栋这样的知名华人AI学者。

从FAIR实验室“走出来”的科研项目,很多都更可以说是在AI界里名声大噪。例如“换脸神器”DeepFace、构建自然语言问答系统的MemoryNetworks,以及开源深度学习框架Torch的更新和推广等等。

另一位图灵奖得主、深度学习巨头YoshuaBengio坐镇的MILA实验室,也选择OGB-wikikg2作为“试炼场”。MILA实验室是目前学术界从事深度学习和强化学习最大的实验室。

在高手如云、竞争激烈的OGB挑战赛上,度小满凭借技术实力荣居榜首,足以见证其前沿技术已处于业界领先地位。接下来,度小满将持续创新知识图谱技术,不断推动创新技术在金融行业的运用与发展。

免责声明:市场有风险,选择需谨慎!此文仅供参考,不作买卖依据。

推荐内容