Migliore risposta
2,54 centimetri.
È un fatto curioso, questa misura è inglese, perché quando si divide il piede reale in 12 parti, il pollice (la larghezza media del pollice) era di 2,54 cm. Questa è la misura usata oggi.
In Castiglia era di 23,22 centimetri e nellantica Roma era di 24,6 cm.
Se ti chiedi, la lunghezza di un piede medio è di 30,48 cm, cioè 12 pollici. Ricordiamoci che in questo sistema antropometrico, la misura successiva più grande è uguale a 12 volte la precedente, in questo caso il ft è 12 volte maggiore di 1 pollice.
Risposta
Ricorda che un centimetro (cm) è più piccolo di un pollice.
Per un riferimento vago, un centimetro sarà la larghezza dellunghia del mignolo, mentre un pollice sarà un po più della larghezza dellunghia pollice.
Quindi, se hai una lunghezza espressa in centimetri, ricorda che la stessa lunghezza dovrebbe essere minore se espressa in pollici.
Come esempio illustrativo, immagina di avere un tavolo che hai misurato usando il tuo mignolo ed è lungo 100 mignoli. Se misuri nuovamente la stessa tabella usando la larghezza del pollice, scoprirai che misura circa 40-50 pollici.
Ora, per entrare nel calcolo, dovresti sapere che un pollice misura 2,54 cm. Cioè, un pollice è compreso tra 2 e 3 cm.
Puoi ottenere rapidamente un intervallo approssimativo se ritieni che il valore della lunghezza in pollici sia compreso tra una metà (1/2) e un terzo (1/3) della lunghezza espressa in cm:
100 cm (o 1 metro) sarà un valore compreso tra 33 pollici e 50 pollici
Un valore più vicino si otterrà dividendo la lunghezza in cm per 2,5, o uguale, moltiplicando la lunghezza in cm per 0,4:
100 cm (o 1 metro) x 0,4 pollici / cm restituiscono circa 40 pollici
e dati più precisi si ottiene dividendo leventuale lunghezza espressa in centimetri tra 2,54.
100 cm / 2,54 in / cm = 39,37 pollici