Hva er forskjellen mellom sparsom vektor og tett vektor i maskinlæring?


Beste svaret

Konseptuelt er det det samme. Bare en vektor.

Datastrukturen bak den er forskjellig fra den. Å være sparsom betyr at den ikke eksplisitt inneholder hver koordinat. Jeg skal forklare.

Vurder annonsedimensjonsvektor u \ i I \! R ^ d, u = (u\_1, …, u\_d),

Du vet noen ganger at din vektor vil ha mye u\_i = 0 verdi. Da vil du kanskje, for å unngå minneutslipp, lagre verdier som ikke er 0, og deretter, og vurdere, andre verdier som null. Dette er veldig nyttig når one-hot brukes.

Vanligvis blir sparsomme vektorer representert med en tuple (id, verdi) slik som: u\_i = verdier [j] hvis id [j] = i; u\_i = 0 ellers (hvis i ikke er i id)

Fra et dev-synspunkt blir det sparsomt vektor fra tett vektor er som å gjøre:

sparse\_vec = {“id”: [], “values”: []}

d = len(dense\_vec)

for i in range(0, d):

if d[i] != 0:

sparse\_vec["id"].append(i)

sparse\_vec["values"].append(d[i])

Og for eksempel vil en tett vektor (1, 2, 0, 0, 5, 0, 9, 0, 0) være representert som {(0,1,4,6), (1, 2, 5, 9)}

pltrdy

Svar

Vector refererer til hvilken som helst fysisk størrelse som har størrelse og retning. I tillegg til dette bør det overholde loven om vektortilsetning.

Eksempel: kraft, hastighet, forskyvning, momentmoment, akselerasjon, elektrifisert etc.

Posisjonsvektoren er også en vektor som lokaliserer posisjonen til en partikkel med hensyn til opprinnelsen til referanserammen. Den er betegnet med \ vec {r} = x \ hat {i} + y \ hat {j} + z \ hat {k}.

Hvor \ hat {i}, \, \ hat { j} og \ hat {k} er enhetsvektoren langs henholdsvis x-, \, y- og z-aksene. Og (x, \, y, \, z) er koordinatene til posisjonen til en partikkel uten opprinnelsen til refleksrammen.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *