ข้ามไปยังเนื้อหาหลัก

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ย้อนกลับ

Data Access Control for AI RAG Apps on Azure

17 กรกฎาคม, 2567 | 7:00 หลังเที่ยง - 8:00 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูป แบบ:
  • alt##LivestreamLivestream

หัว ข้อ: การรักษาความปลอดภัยและการกํากับดูแลข้อมูลของ AI

ภาษา: ภาษาอังกฤษ

If you're trying to get an LLM to accurately answer questions about your own documents, you need RAG: Retrieval Augmented Generation. With a RAG approach, the app first searches a knowledge base for relevant matches to a user's query, then sends the results to the LLM along with the original question. What if you have documents that should only be accessed by a subset of your users, like a group or a single user? Then you need data access controls to ensure that document visibility is respected during the RAG flow. In this session, we'll show an approach using Azure AI Search with data access controls to only search the documents that can be seen by the logged in user. We'll also demonstrate a feature for user-uploaded documents that uses data access controls along with Azure Data Lake Storage Gen2.

Part of our Reactor series on Securing AI Apps on Azure!

ลำโพง

เหตุการณ์ที่เกี่ยวข้อง

อีเวนต์ด้านล่างนี้อาจเป็นกิจกรรมที่คุณสนใจเช่นกัน อย่าลืมเยี่ยมชม โฮมเพจเครื่องปฏิกรณ์ เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด

สําหรับคําถามโปรดติดต่อเราที่ reactor@microsoft.com