Distanza tra due punti

Distanza tra due punti

La distanza tra due punti è la lunghezza del segmento che ha come estremi questi punti e li unisce. Sapere calcolare questo valore può essere molto importante, soprattutto quando non si conoscono altri dati, eccetto le coordinate dei due punti, o soltanto uno di esso. I metodi descritti in questo articolo vengono usati specialmente quando si fanno dei rilevamenti.

In effetti, non è necessario conoscere l’ambiente in cui si trovano i punti da rilevare e la lunghezza del segmento che li unisce. Tramite un sistema di coordinate che stabiliamo, possiamo dare come valore 0 alle coordinate del primo punto, e assegnare le coordinate del secondo punto in relazione al primo.

Innanzitutto i punti interessati vengono inseriti in un sistema di assi cartesiani, formati da due assi perpendicolari tra loro e con una direzione orizzontale e una verticale. Le coordinate dei punti sono messe in relazione con questi assi.

Dopodiché si crea un nuovo sistema di assi cartesiani, definito parziale, la cui origine viene fatta coincidere con il primo punto. In questo modo si può costruire un triangolo rettangolo, la cui ipotenusa coincide con la distanza tra i due punti, e i cateti sono formati dai segmenti che i cui vertici sono i due punti con il punto di intersezione le loro rette perpendicolari con gli assi cartesiani.

distanza tra due punti, sistemi cartesiani, teorema di Pitagora

A questo punto, risulta immediato calcolare la distanza tra questi due punti: basta applicare il teorema di Pitagora e ricavare la radice quadrata della somma tra il quadrato della differenza delle ascisse dei due punti e il quadrato della differenza delle loro ordinate.

AB = √{[XB)A]2 + [(YB)A]2}

= √[(XB – XA)2 + (YB – YA)2]

Distanza tra due punti in topografia: sistema polare

In topografia, è comune utilizzare insieme al sistema cartesiano, un altro sistema di riferimento definito polare: in questo caso, il punto di origine coincide sempre con il primo punto di un segmento e viene anche tracciato l’angolo di direzione, un angolo orientato che parte dalla perpendicolare che passa dal primo punto e che ha come secondo limite il segmento che unisce i due punti.

distanza tra due punti tramite le funzioni goniometriche
Dettaglio dell’immagine sopra

In questo caso l’asse delle ordinate coincide con l’asse verticale orientato del sistema polare. In questo caso, per indicare la posizione di un punto si indica la sua distanza dal polo, od origine, e l’angolo che l’asse polare forma con il segmento che lo unisce al polo.

Si usano in questo caso le funzioni goniometriche invece del teorema di Pitagora. Il rapporto tra i cateti di triangoli rettangoli formati dagli stessi angoli è sempre lo stesso e rappresenta la tangente di quell’angolo. Pertanto, basta ricavare l’inverso di tale funzione per ricavare l’azimut, l’angolo di direzione di cui si è già parlato. E’ possibile fare questo semplicemente usando una calcolatrice scientifica.

Nell’immagine ci sono due angoli azimutali: (AB) e (BA). Le due lettere rappresentano le semirette di partenza e di arrivo di ciascun angolo orientato. Nell’immagine, infatti, abbiamo due sistemi polari: il primo ha origine nel punto A e il secondo ha origine nel punto B. La prima lettera di un angolo di direzione indica il polo. La formula per ricavare l’angolo (AB) è:

(AB) = arctg[(XB)A/(YB)A]

Ricavato l’angolo del triangolo rettangolo basta applicare un’altra formula per trovare la distanza tra i due punti, cioè ricavare il rapporto tra il cateto opposto all’ipotenusa per il seno dell’angolo azimutale, oppure il rapporto tra il cateto adiacente per il coseno dello stesso angolo:

AB = (XB)A / sen (AB)

AB = (YB)A / cos (AB)

Quando si fa un rilevamento, è possibile convertire le coordinate polari in cartesiane tramite la formula inversa.

/ 5
Grazie per aver votato!