- Blog (150)
- Cất chứa
- Chú ý
Nguyên sang 【 luận văn đọc 】Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
Luận văn đọc: Self-RAG: Learning to Retrieve, Generate, and Critique through Self-Reflection
2024-10-24 19:05:26 696
Nguyên sang 【Pytorch】 đại ngôn ngữ mô hình trung CrossEntropyLoss
Từ đại ngôn ngữ mô hình huấn luyện góc độ lý giải CrossEntropyLoss
2024-09-20 16:52:43 1085
Nguyên sang 【 chiều sâu học tập 】 căn cứ vào Transformers đại mô hình trinh thám dàn giáo
Căn cứ vào transformers đại mô hình trinh thám dàn giáo
2024-08-21 22:01:26 304
Nguyên sang 【 chiều sâu học tập 】 trực quan lý giải AUROC
Tiểu bạch cũng có thể hiểu AUROC giới thiệu
2024-08-16 10:05:55 1111
Nguyên sang 【UCAS tự nhiên ngôn ngữ xử lý tác nghiệp nhị 】 huấn luyện FFN, RNN, Attention cơ chế ngôn ngữ mô hình, cũng tính toán thí nghiệm tập thượng PPL
Huấn luyện trước tặng mạng lưới thần kinh, tuần hoàn mạng lưới thần kinh, lực chú ý cơ chế ngôn ngữ mô hình, cũng tính toán thí nghiệm tập PPL
2023-11-25 21:39:39 887
Nguyên sang 【UCAS tự nhiên ngôn ngữ xử lý tác nghiệp một 】 lợi dụng BeautifulSoup bò lấy trung tiếng Anh số liệu, tính toán entropy, nghiệm chứng tề phu định luật
Bổn văn phân biệt nhằm vào tiếng Trung, tiếng Anh tài liệu ngôn ngữ tiến hành loài bò sát, cũng ở hai loại ngôn ngữ thượng tính toán này đối ứng entropy, nghiệm chứng tề phu định luật github.
2023-10-22 22:14:23 1498 2
Nguyên sang 【SIGIR-AP 2023】A Comparative Study of Training Objectives for Clarification Facet Generation
【SIGIR-AP 2023】AComparative Study of Training Objectives for Clarification Facet Generation
2023-10-20 19:43:08 326
Nguyên sang 【 luận văn đọc 】 kiểm tra tăng cường phát triển lịch trình cập tương quan văn chương tổng kết
Kiểm tra tăng cường tương quan văn chương tổng kết: `Knn-LM`->`REALM`->`DPR`->`RAG`->`FID`->`COG`->`GenRead`->`REPLUG`->`Adaptive retrieval`
2023-09-19 11:32:13 1892 3
Nguyên sang Như thế nào tính toán văn bản hoang mang độ perplexity(ppl)
Bổn văn chú ý ở Pytorch trung như thế nào tính toán hoang mang độ ppl, vì cái gì có thể sử dụng cross-entropy loss đại biểu ppl.
2023-07-31 15:34:31 8369
Nguyên sang 【 luận văn đọc 】Unified Multi-Dimensional Automatic Evaluation for Open-Domain Conversations with LLMs
Nên văn chương đưa ra một loại lợi dụng đại mô hình đối open-domain đối thoại tiến hành đánh giá phương pháp. Chủ yếu lợi dụng một cái Prompt, tới chỉ thị LLMs dùng một lần phát ra tương ứng nhiều chỉ tiêu.
2023-07-19 17:13:10 415
Nguyên sang 【 luận văn đọc 】 một ít nhiều luân đối thoại văn chương thể hội ACL 2023
Bổn văn là đối ngày hôm qua nhìn đến ACL 2023 tam thiên nhiều luân đối thoại văn chương chia sẻ này ba cái công tác đều là căn cứ một ít thêm vào thuộc tính khống chế phát ra công tác, thả đánh giá phương diện tương đối tương tự, có thể tham khảo.
2023-07-18 17:49:52 1530
Nguyên sang 【 luận văn đọc 】Scaling Laws for Neural Language Models
Bổn văn giản yếu giới thiệu chủ yếu kết luận cá nhân cho rằng không cần đặc biệt chú ý công thức nội các loại ký hiệu cụ thể trị số, mà càng hẳn là chú ý bất đồng nhân tố chi gian quan hệ, tỉ lệ chờ.
2023-07-13 10:47:40 4794
Nguyên sang 【 luận văn đọc 】Learing to summarize from human feedback
Nên kho hàng liên tục đổi mới.
2023-06-16 20:13:16 1431 1
Nguyên sang 【 luận văn đọc 】Language Models are Few-Shot Learners(GPT-3)
Bổn văn giản yếu giới thiệu GPT-3 bối cảnh, mô hình giá cấu, huấn luyện số liệu cùng với phương thức huấn luyện bộ phận. Cụ thể huấn luyện chi tiết, thực nghiệm kết quả rất nhiều, có thể ở dùng đến thời điểm lại xem.
2023-06-09 22:40:10 1486
Nguyên sang 【 luận văn đọc 】REPLUG: Retrieval-Augmented Black-Box Language Models
【 luận văn đọc 】REPLUG: Retrieval-Augmented Black-Box Language Models
2023-05-19 22:54:37 2906 6
Nguyên sang CS 224N tổng kết
Bổn văn ký lục học tập CS 224N khi một ít nghi hoặc cùng cá nhân lý giải
2023-05-14 23:49:12 449
Nguyên sang 【 luận văn đọc 】MIMICS: A Large-Scale Data Collection for Search Clarification
【 luận văn đọc 】MIMICS: A Large-Scale Data Collection for Search Clarification
2023-03-17 15:50:57 388
Nguyên sang 【 luận văn đọc SIGIR‘19】Asking Clarifying Questions in Open-Domain Information-Seeking Conversations
【 luận văn đọc SIGIR'19】Asking Clarifying Questions in Open-Domain Information-Seeking Conversations
2023-03-11 23:03:49 225 2
Nguyên sang 【 luận văn đọc 】Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of
【 luận văn đọc 】Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information
2023-03-10 11:09:48 253
Nguyên sang 【 luận văn đọc WWW‘23】Zero-shot Clarifying Question Generation for Conversational Search
【 luận văn đọc WWW'23】Zero-shot Clarifying Question Generation for Conversational Search
2023-03-05 21:59:50 1013 1
Nguyên sang Thường thấy phân từ phương pháp
Thường thấy phân từ phương pháp: word-based, character-based, subword-based tokenization
2023-02-19 23:34:05 483
Nguyên sang Sử dụng Fairseq tiến hành Bart dự huấn luyện
Sử dụng Fairseq tiến hành Bart dự huấn luyện
2023-02-19 16:09:49 2809 13
Nguyên sang 【Huggingface hệ liệt học tập 】Finetuning một cái dự huấn luyện mô hình
【huggingface hệ liệt 】Fituning dự huấn luyện mô hình
2023-02-12 18:09:20 2253
Nguyên sang 【huggingface hệ liệt học tập 】Using Transformers
【huggingface hệ liệt học tập 】Using Transformers
2023-02-10 22:47:23 1078
Nguyên sang Python@ trang trí khí ( hàm số + loại trang trí khí )
Python trung @ tác dụng
2023-01-27 16:27:01 1135
Nguyên sang 【 luận văn đọc T5】Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
【 luận văn đọc T5】Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
2023-01-16 00:37:42 802 1
Nguyên sang 【 luận văn đọc CIKM2011】Finding Dimensions for Queries
【 luận văn đọc CIKM2011】Finding Dimensions for Queries
2023-01-15 00:43:06 914 3
Nguyên sang 【 luận văn đọc CIKM2014】Extending Faceted Search to the General Web
【 luận văn đọc CIKM2014】Extending Faceted Search to the General Web
2023-01-14 17:15:28 547 2
Nguyên sang 【 luận văn đọc 】Stochastic Optimization of Text Set Generation for Learning Multiple Query Intent Representati
【 luận văn đọc CIKM 2022】Stochastic Optimization of Text Set Generation for Learning Multiple Query Intent Representations
2023-01-13 19:55:40 294
Nguyên sang Clarifying Question lĩnh vực nhất thường thấy ba cái số liệu tập
Clarifying Question lĩnh vực nhất thường dùng số liệu tập
2023-01-12 22:20:40 850
Nguyên sang transformers kho trung.from_pretrained()
Transformers kho trung dự huấn luyện mô hình thêm tái hàm số.from_pretrained()
2022-12-28 22:34:53 17383 15
Nguyên sang 【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ bút ký 】 ( sáu ) Link Analysis
【 tin tức kiểm tra cùng số liệu khai quật bút ký 】Link Analysis
2022-12-26 23:44:46 890
Nguyên sang 【 luận văn đọc CIKM‘2021】Learning Multiple Intent Representations for Search Queries
【 luận văn đọc CIKM'2021】Learning Multiple Intent Representations for Search Queries
2022-12-05 23:23:50 520
Nguyên sang 【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ ôn tập 】 ( năm ) Language Model
【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ ôn tập 】Language Model
2022-12-05 19:41:12 766
Nguyên sang 【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ bút ký 】 ( bốn ) xác suất kiểm tra mô hình
【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ bút ký 】 xác suất kiểm tra mô hình
2022-12-02 11:24:17 1329
Nguyên sang 【 luận văn đọc ICTIR‘2022】Revisiting Open Domain Query Facet Extraction and Generation
【 luận văn đọc ICTIR'2022】Revisiting Open Domain Query Facet Extraction and Generation
2022-11-30 23:08:21 778
Nguyên sang 【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ bút ký 】 ( tam ) hồ sơ cho điểm
【 tin tức kiểm tra cùng số liệu khai quật cuối kỳ bút ký 】 hồ sơ cho điểm
2022-11-30 17:46:24 431
Rỗng tuếch
Rỗng tuếch
TA sáng tạo bookmarkTA chú ý bookmark
TA chú ý người