Chuyển đến nội dung chính

HỌC HỎI, KẾT NỐI, XÂY DỰNG

Microsoft Reactor

Tham gia Microsoft Reactor và tương tác trực tiếp với các nhà phát triển

Bạn đã sẵn sàng bắt đầu với AI và các công nghệ mới nhất chưa? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các nhà phát triển, doanh nhân và công ty khởi nghiệp xây dựng dựa trên công nghệ AI và hơn thế nữa. Tham gia với chúng tôi!

HỌC HỎI, KẾT NỐI, XÂY DỰNG

Microsoft Reactor

Tham gia Microsoft Reactor và tương tác trực tiếp với các nhà phát triển

Bạn đã sẵn sàng bắt đầu với AI và các công nghệ mới nhất chưa? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các nhà phát triển, doanh nhân và công ty khởi nghiệp xây dựng dựa trên công nghệ AI và hơn thế nữa. Tham gia với chúng tôi!

Quay lại

Assessing security risk in AI model using Microsoft Counterfit

12 tháng 6, 2024 | 11:30 SA - 12:30 CH (UTC) Giờ phối hợp quốc tế

  • Định dạng:
  • alt##LivestreamPhát trực tiếp

Chủ đề: AI có trách nhiệm

Ngôn ngữ: Tiếng Anh

This session involves the Responsible AI aspect of developing an AI model. While developing an AI model as a part of Responsible AI one should take care of possible security risks involved with the AI model because, to prevent attack one should be aware of possible attacks. Nowadays it is one of the less focused areas in the field of AI development.
We will discuss various categories of attack possible on the AI model such as Black box and White box attack. An AI risk assessment tool developed by Microsoft Counterfit will be introduced.
At last, we will conclude our session with a live demo of Microsoft Counterfit on Neural Network Classification system.

This session will focus on:
Brief introduction about Responsible AI and how security of AI model is crucial part of responsible AI.
Brief introduction of attack possible on AI model.
Microsoft Counterfit live demo on Neural Network classifier.

What will you learn from this session:
Possible attack on AI model.
How to use Microsoft Counterfit to assess security risk on an AI model.

Further Learning: https://aka.ms/Fundamentals-Responsible-GenAI

Speaker Bio: Dhruvkumar Patel

Dhruv is a senior software engineer at Marvell India, He holds an M.Tech. in Computer Science from NIT Surat. He has been actively engaged in AI, ML, Gen AI, and adversarial machine learning with a recent foray into the field of data science over the past few months.

Social Handle: LinkedIn: https://www.linkedin.com/in/dhruvpatel0463/

Các phần của trang này có thể được dịch bằng máy hoặc AI.