เวกเตอร์ — มุมมองการเรียนรู้ของเครื่อง

Nov 28 2022
มุมมองทางฟิสิกส์ : เวกเตอร์คือลูกศรชี้ไปในอวกาศ สิ่งที่กำหนดเวกเตอร์คือความยาวและทิศทางที่ชี้ไป
ภาพถ่ายโดย Antoine Dautry บน Unsplash

มุมมองทางฟิสิกส์ : เวกเตอร์คือลูกศรชี้ไปในอวกาศ สิ่งที่กำหนดเวกเตอร์คือความยาวและทิศทางที่ชี้ไป เวกเตอร์ในระนาบแบนจะมี 2 มิติ และเวกเตอร์ในพื้นที่กว้างจะมี 3 มิติ

มุมมองวิทยาการคอมพิวเตอร์ : เวกเตอร์เป็นลำดับรายการของตัวเลข ถ้าความยาวของรายการเท่ากับ 2 แล้วเวกเตอร์จะเป็น 2 มิติ

มุมมองทางคณิตศาสตร์ : เวกเตอร์ คือ วัตถุที่มีทั้งขนาดและทิศทาง ขนาดกำหนดขนาดของเวกเตอร์ มันถูกแทนด้วยเส้นที่มีลูกศร โดยที่ความยาวของเส้นคือขนาดของเวกเตอร์ และลูกศรแสดงทิศทาง เรียกอีกอย่างว่าเวกเตอร์แบบยุคลิดหรือเวกเตอร์เรขาคณิตหรือเวกเตอร์เชิงพื้นที่หรือเวกเตอร์ง่ายๆ

เวกเตอร์

ข้อมูลเฉพาะของ พีชคณิตเวกเตอร์

Vector คือ โครงสร้างข้อมูลที่มีองค์ประกอบอย่างน้อย 2 ส่วน ซึ่งตรงข้ามกับสเกลาร์ สเกลาร์เป็นเพียงตัวเลข เราสามารถคิดว่ามันเหมือนกับค่าปกติที่เราใช้

พิกัดของเวกเตอร์คือคู่ของตัวเลขที่โดยทั่วไปจะให้คำแนะนำเกี่ยวกับวิธีหาค่าจากส่วนท้ายของเวกเตอร์นั้นจากจุดกำเนิดไปยังส่วนปลาย ในเวกเตอร์แต่ละพิกัดเป็นสเกลาร์

การแสดงพิกัดของเวกเตอร์

การบวกเวกเตอร์และการปรับขนาด

การบวกเวกเตอร์
สเกลาร์ — การคูณสเกลาร์ของเวกเตอร์

การรวมเชิงเส้นหมายถึงการบวกเวกเตอร์เข้าด้วยกัน สแปนของเวกเตอร์คือ s ของผลรวมเชิงเส้นของเวกเตอร์ทั้งหมด

ผลรวมเชิงเส้นของ V, W, U คือaV+ bW+ cU

สแปนของเวกเตอร์เหล่านี้คือเซตของผลรวมเชิงเส้นที่เป็นไปได้ทั้งหมด

สเกลาร์ที่เปลี่ยนแปลงอย่างอิสระสามตัวจะส่งผลให้เข้าถึงพื้นที่ 3 มิติเต็มรูปแบบ

หนึ่งในเวกเตอร์สามารถแสดงเป็นชุดค่าผสมเชิงเส้นของเวกเตอร์อื่น ๆ จากนั้นจะขึ้นอยู่กับเชิงเส้น

คุณ=aV+bW

หากเวกเตอร์แต่ละตัวเพิ่มมิติอื่นให้กับสแปน พวกมันก็จะเป็นอิสระเชิงเส้น

W!= aV (สำหรับทุกค่าของ a)

พื้นฐานของ ส เปซ เวกเตอร์คือเซตของเวกเตอร์อิสระเชิงเส้นที่กระจายเต็มสเปซ

Dot Product ของเวกเตอร์

ดอทโปรดักต์ระหว่าง 2 เวกเตอร์ A และ B กำลังฉาย w ไปยังเส้นที่ผ่านจุดกำเนิดและจุดสิ้นสุดของ A

ก · ข = | ก| × |B| × คอส(θ)

Dot product = (ความยาวของเส้นโครง A) * (ความยาวของเส้นโครง B)

  • เวกเตอร์ 2 ตัวชี้ไปในทิศทางเดียวกัน ดอทโปรดัคเป็นบวก
  • เวกเตอร์ 2 ตัวตั้งฉากกันแล้วดอทโปรดัคเป็นศูนย์
  • เวกเตอร์ 2 ตัวชี้สวนทางกัน แล้วดอทโปรดัคเป็นลบ

ผลิตภัณฑ์ข้ามของเวกเตอร์

ผลคูณของเวกเตอร์สองตัวคือเวกเตอร์ตัวที่สามที่ตั้งฉากกับเวกเตอร์ดั้งเดิมสองตัว ขนาดของมันถูกกำหนดโดยพื้นที่ของสี่เหลี่ยมด้านขนานระหว่างพวกมันและทิศทางสามารถกำหนดได้โดยกฎมือขวา ครอสโปรดัคของเวกเตอร์สองตัวเรียกอีกอย่างว่าผลคูณของเวกเตอร์ เนื่องจากผลลัพธ์ของผลคูณครอสของเวกเตอร์เป็นปริมาณเวกเตอร์ ผลคูณไขว้จะมีความยาวเป็นศูนย์เมื่อเวกเตอร์aและbชี้ไปในทิศทางเดียวกันหรือตรงกันข้าม และถึงความยาวสูงสุดเมื่อเวกเตอร์aและbอยู่ในมุมฉาก

ก x ข= |ก| |ข| บาป θ

ข้ามผลิตภัณฑ์

ผลิตภัณฑ์ข้ามให้เวกเตอร์เป็นผลลัพธ์

ความคล้ายคลึงกันของโคไซน์

ความคล้ายคลึงกันของโคไซน์วัดค่าโคไซน์ของมุมระหว่างเวกเตอร์ที่ไม่ใช่ศูนย์ 2 ตัวของพื้นที่ผลคูณภายใน การวัดความคล้ายคลึงกันนี้เกี่ยวข้องกับการวางแนวมากกว่าขนาด เวกเตอร์โคไซน์ 2 ตัวที่วางเรียงกันในทิศทางเดียวกันจะมีค่าความคล้ายคลึงกันเท่ากับ 1 ในขณะที่เวกเตอร์สองตัวที่วางเรียงกันในแนวตั้งฉากกันจะมีความคล้ายคลึงกันเท่ากับ 0 หากเวกเตอร์สองตัวตรงข้ามกันทางไดเมตริก หมายความว่าพวกมันมีทิศทางตรงกันข้ามกัน ดังนั้นการวัดความคล้ายคลึงกัน คือ -1

ความคล้ายคลึงกันของโคไซน์

การทำให้เป็นมาตรฐานแบบเวกเตอร์

เวกเตอร์มีขนาด และเวกเตอร์ต่างๆ สามารถมีขนาดต่างกันได้ บางครั้งเราไม่สนใจขนาดของเวกเตอร์ แต่สนใจเฉพาะทิศทางเท่านั้น ถ้าเราไม่สนใจขนาดเลย เราก็ทำให้เวกเตอร์แต่ละตัวมีขนาดเท่ากันได้ เราทำสิ่งนี้โดยการหารเวกเตอร์แต่ละตัวด้วยขนาดของมัน จึงทำให้เวกเตอร์แต่ละตัวมีขนาด 1 หรือแปลงพวกมันเป็นเวกเตอร์หนึ่งหน่วย

การทำให้เป็นมาตรฐานแบบเวกเตอร์

พีชคณิตเวกเตอร์ในการเรียนรู้ของเครื่อง

  1. เครื่องจักรไม่สามารถอ่านข้อความหรือดูภาพเหมือนที่เราทำได้ พวกเขาต้องการอินพุตเพื่อแปลงหรือเข้ารหัสเป็นตัวเลข เวกเตอร์และเมทริกซ์แสดงอินพุต เช่น ข้อความและรูปภาพเป็นตัวเลข เพื่อให้เราสามารถฝึกและปรับใช้โมเดลของเราได้
  2. เป้าหมายของโครงการ ML ส่วนใหญ่คือการสร้างแบบจำลองที่ทำหน้าที่บางอย่าง ในโมเดลการเรียนรู้เชิงลึก สิ่งนี้สามารถทำได้ผ่านโครงข่ายประสาทเทียมที่เลเยอร์โครงข่ายประสาทเทียมใช้พีชคณิตเชิงเส้น (เช่น การคูณเมทริกซ์และเวกเตอร์) เพื่อปรับพารามิเตอร์ของคุณ นี่คือจุดที่คำจำกัดความทางคณิตศาสตร์ของเวกเตอร์เกี่ยวข้องกับ ML ซึ่งรวมถึงการเข้าใจสเปซเวกเตอร์และเหตุใดจึงสำคัญสำหรับ ML
  3. ผลลัพธ์ของโมเดล ML สามารถเป็นช่วงของเอนทิตีที่แตกต่างกันขึ้นอยู่กับเป้าหมายของเรา และมันสามารถเป็นเวกเตอร์ได้เช่นกัน ตัวอย่างเช่น โมเดล NLP ยอมรับข้อความแล้วส่งออกเวกเตอร์ (เรียกว่าการฝัง) แทนประโยค จากนั้นคุณสามารถใช้เวกเตอร์นี้เพื่อดำเนินการช่วงต่างๆ หรือเป็นอินพุตในโมเดลอื่น การดำเนินการที่คุณสามารถทำได้ ได้แก่ การรวมประโยคที่คล้ายกันเข้าด้วยกันในพื้นที่เวกเตอร์ หรือค้นหาความคล้ายคลึงระหว่างประโยคต่างๆ โดยใช้การดำเนินการ เช่น ความคล้ายคลึงกันของโคไซน์
  4. Dimensionality Reduction คือการแปลงข้อมูลที่มีมิติสูงเป็นข้อมูลที่มีมิติต่ำกว่า ในขณะที่เก็บข้อมูลส่วนใหญ่ไว้ในข้อมูล ซึ่งช่วยให้เราทำงานกับชุดข้อมูลที่ใหญ่ขึ้นและระบุคุณลักษณะที่เกี่ยวข้องมากที่สุดของข้อมูลได้
  5. อัลกอริธึมการลดขนาด

อ้างอิง