找回密碼
 To register

QQ登錄

只需一步,快速開始

掃一掃,訪問微社區(qū)

打印 上一主題 下一主題

Titlebook: Pretrained Transformers for Text Ranking; BERT and Beyond Jimmy Lin,Rodrigo Nogueira,Andrew Yates Book 2022 Springer Nature Switzerland AG

[復制鏈接]
查看: 28674|回復: 35
樓主
發(fā)表于 2025-3-21 18:42:09 | 只看該作者 |倒序瀏覽 |閱讀模式
書目名稱Pretrained Transformers for Text Ranking
副標題BERT and Beyond
編輯Jimmy Lin,Rodrigo Nogueira,Andrew Yates
視頻videohttp://file.papertrans.cn/755/754963/754963.mp4
叢書名稱Synthesis Lectures on Human Language Technologies
圖書封面Titlebook: Pretrained Transformers for Text Ranking; BERT and Beyond Jimmy Lin,Rodrigo Nogueira,Andrew Yates Book 2022 Springer Nature Switzerland AG
描述The goal of text ranking is to generate an ordered list of texts retrieved from a corpus in response to a query. Although the most common formulation of text ranking is search, instances of the task can also be found in many natural language processing (NLP) applications.This book provides an overview of text ranking with neural network architectures known as transformers, of which BERT (Bidirectional Encoder Representations from Transformers) is the best-known example. The combination of transformers and self-supervised pretraining has been responsible for a paradigm shift in NLP, information retrieval (IR), and beyond. This book provides a synthesis of existing work as a single point of entry for practitioners who wish to gain a better understanding of how to apply transformers to text ranking problems and researchers who wish to pursue work in this area. It covers a wide range of modern techniques, grouped into two high-level categories: transformer models that perform reranking inmulti-stage architectures and dense retrieval techniques that perform ranking directly. Two themes pervade the book: techniques for handling long documents, beyond typical sentence-by-sentence processi
出版日期Book 2022
版次1
doihttps://doi.org/10.1007/978-3-031-02181-7
isbn_softcover978-3-031-01053-8
isbn_ebook978-3-031-02181-7Series ISSN 1947-4040 Series E-ISSN 1947-4059
issn_series 1947-4040
copyrightSpringer Nature Switzerland AG 2022
The information of publication is updating

書目名稱Pretrained Transformers for Text Ranking影響因子(影響力)




書目名稱Pretrained Transformers for Text Ranking影響因子(影響力)學科排名




書目名稱Pretrained Transformers for Text Ranking網(wǎng)絡公開度




書目名稱Pretrained Transformers for Text Ranking網(wǎng)絡公開度學科排名




書目名稱Pretrained Transformers for Text Ranking被引頻次




書目名稱Pretrained Transformers for Text Ranking被引頻次學科排名




書目名稱Pretrained Transformers for Text Ranking年度引用




書目名稱Pretrained Transformers for Text Ranking年度引用學科排名




書目名稱Pretrained Transformers for Text Ranking讀者反饋




書目名稱Pretrained Transformers for Text Ranking讀者反饋學科排名




單選投票, 共有 0 人參與投票
 

0票 0%

Perfect with Aesthetics

 

0票 0%

Better Implies Difficulty

 

0票 0%

Good and Satisfactory

 

0票 0%

Adverse Performance

 

0票 0%

Disdainful Garbage

您所在的用戶組沒有投票權限
沙發(fā)
發(fā)表于 2025-3-21 22:55:22 | 只看該作者
第154963主題貼--第2樓 (沙發(fā))
板凳
發(fā)表于 2025-3-22 03:05:27 | 只看該作者
板凳
地板
發(fā)表于 2025-3-22 07:39:26 | 只看該作者
第4樓
5#
發(fā)表于 2025-3-22 10:51:41 | 只看該作者
5樓
6#
發(fā)表于 2025-3-22 15:14:34 | 只看該作者
6樓
7#
發(fā)表于 2025-3-22 19:10:43 | 只看該作者
7樓
8#
發(fā)表于 2025-3-22 23:43:48 | 只看該作者
8樓
9#
發(fā)表于 2025-3-23 05:12:11 | 只看該作者
9樓
10#
發(fā)表于 2025-3-23 08:20:34 | 只看該作者
10樓
 關于派博傳思  派博傳思旗下網(wǎng)站  友情鏈接
派博傳思介紹 公司地理位置 論文服務流程 影響因子官網(wǎng) 吾愛論文網(wǎng) 大講堂 北京大學 Oxford Uni. Harvard Uni.
發(fā)展歷史沿革 期刊點評 投稿經(jīng)驗總結 SCIENCEGARD IMPACTFACTOR 派博系數(shù) 清華大學 Yale Uni. Stanford Uni.
QQ|Archiver|手機版|小黑屋| 派博傳思國際 ( 京公網(wǎng)安備110108008328) GMT+8, 2025-10-9 03:46
Copyright © 2001-2015 派博傳思   京公網(wǎng)安備110108008328 版權所有 All rights reserved
快速回復 返回頂部 返回列表
涞水县| 金昌市| 高密市| 潜山县| 彭泽县| 沈丘县| 米泉市| 依兰县| 迭部县| 渝北区| 扎赉特旗| 交口县| 凤台县| 平凉市| 山丹县| 金坛市| 天峻县| 荆州市| 正蓝旗| 柳河县| 丽江市| 汤原县| 西城区| 三台县| 湖州市| 荃湾区| 荆州市| 禄丰县| 陵川县| 凤庆县| 凤阳县| 九寨沟县| 苏州市| 新安县| 西乡县| 沂南县| 龙里县| 海安县| 卢氏县| 铜川市| 青浦区|