Hvad er forskellen mellem sparsel vektor og tæt vektor i maskinindlæring?


Bedste svar

Konceptuelt er det det samme. Bare en vektor.

Datastrukturen bag den er anderledes end den. At være sparsom betyder, at det ikke eksplicit indeholder hver koordinat. Jeg forklarer.

Overvej annoncedimensionel vektor u \ i I \! R ^ d, u = (u\_1, …, u\_d),

Du ved undertiden, at din vektor vil have en masse u\_i = 0 værdi. Så vil du måske, for at undgå spild af hukommelse, gemme værdier, der ikke er 0, og derefter og betragte andre værdier som nul. Dette er meget nyttigt, når one-hot bruges.

Normalt er sparsom vektor repræsenteret af en tuple (id, værdi) såsom: u\_i = værdier [j] hvis id [j] = i; u\_i = 0 ellers (hvis i ikke er i id)

Fra et dev-synspunkt bliver sparsom vektor fra tæt vektor er som at gøre:

sparse\_vec = {“id”: [], “values”: []}

d = len(dense\_vec)

for i in range(0, d):

if d[i] != 0:

sparse\_vec["id"].append(i)

sparse\_vec["values"].append(d[i])

Og for eksempel vil en tæt vektor (1, 2, 0, 0, 5, 0, 9, 0, 0) blive repræsenteret som {(0,1,4,6), (1, 2, 5, 9)}

pltrdy

Svar

Vector refererer til enhver fysisk størrelse, der har størrelse og retning. I tillæg til dette skal det overholde loven om vektortilsætning.

Eksempel: kraft, hastighed, forskydning, moment momentun, acceleration, elektrificeret osv.

Positionsvektoren er også en vektor der lokaliserer placeringen af ​​en partikel i forhold til oprindelsen af ​​referencerammen. Det er betegnet med \ vec {r} = x \ hat {i} + y \ hat {j} + z \ hat {k}.

Hvor \ hat {i}, \, \ hat { j} og \ hat {k} er enhedsvektoren langs henholdsvis x-, \, y- og z-akserne. Og (x, \, y, \, z) er koordinaterne for en partikels position med oprindelse til referencerammen.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *