Allora, non ti darò una risposta completissima perché c'è tutta una (lunga) serie di sottigliezze analitiche addizionali che andrebbero considerate, ma a grandi linee la risposta è che i vettori non sono scalari e non si comportano come tali. Tanto per semplicità lavoro con la tua funzione, ma chiamo $\vec{v}=\vec{A}+\vec{B}+\vec{C}$, tanto questa somma è l'unica quantità interessante.
1.
Massimi e minimi. Diciamo che il tuo $\vec{X}$ viva in $\mathbb{R}^n$, cioè sia un vettore con $n$ componenti, che chiamiamo $x_1, \ldots, x_n$. Se ti viene più comodo puoi mettere $n=3$ in tutto quello che segue e pensare allo spazio 'vero'. Quella che abbiamo è una funzione da $\mathbb{R}^n$ in $\mathbb{R}$: per ogni scelta di $n$ variabili reali $x_1, \ldots, x_n$ ti sputa un numero reale. Ammesso di saper dimostrare che la funzione in questione (sia derivabile e) abbia davvero un minimo globale, questo si trova tra i cosiddetti
punti critici, ovvero i punti in cui si annullano contemporaneamente
tutte le derivate parziali rispetto alle coordinate. Cos'è una derivata parziale? Quando hai una funzione di molte - $n$ - variabili puoi pensare che tutte tranne una siano 'parametri' - se vuoi, dei numeri che qualcuno ha fissato ma che tu non conosci - e considerare la funzione come una funzione di
un'unica variabile, quella che stiamo pensando come libera. A questo punto, se la funzione in questione è sufficientemente regolare, puoi derivare rispetto a quest'unica variabile libera. Nella pratica, questo si traduce appunto nel derivare un'espressione facendo finta di non notare che ci sono le altre variabili. E qui arriva il tuo colpo di fortuna:
per la tua specifica funzione, il punto in cui si annullano tutte le derivate parziali è esattamente quello che segnali tu, ma la cosa è veramente frutto della forma estremamente speciale della funzione - fondamentalmente funziona solo per i polinomi di grado al più 2

.
Comunque, come sono fatti i conti espliciti? Chiama $\vec{v}=(v_1,\ldots,v_n)$ le coordinate di $\vec{v}$, ed osserva che la nostra funzione si scrive
\[
f(\vec{X})=3 \sum_{i=1}^n x_i^2 - 2 \sum_{i=1}^n v_i x_i.
\]
Calcoliamo la derivata parziale rispetto alla generica variabile $x_i$: bisogna far finta che tutte le altre variabili $x_j$, per $i \neq j$, siano numeri fissati, per cui quando si deriva si trova
\[
\frac{\partial f}{\partial x_i}= 3\cdot 2x_i - 2 v_i,
\]
dove quella a sinistra è la notazione per le derivate parziali. Risolvendo questa (difficilissima) equazione si trova allora $x_i=\frac{1}{3}\vec{v}$, per cui effettivamente $\vec{X}=\frac{1}{3}v_i$. Ma, ripeto, è più una coincidenza che altro.
1.5
'Flessi', hessiana, e altre complicazioni. Disclaimer: questo paragrafo è un po' più tecnico, non so se tu abbia già fatto un po' di analisi o meno... se non ci capisci niente saltalo a piè pari

.
In dimensione almeno due stabilire quali punti siano di massimo e quali di minimo non è così semplice (il 'criterio della derivata seconda' viene sostituito da un oggetto che si chiama la matrice Hessiana, e del quale non parlerò). Inoltre possono spuntare altri fenomeni, nel senso che per funzioni di un'unica variabile reale i punti in cui si annulla la derivata prima sono sostanzialmente solo massimi, minimi o flessi. In dimensione $\geq 2$ possono capitare cose balzane ('selle'), per cui, appunto, la situazione è un po' più complicata.
Detto questo, nel nostro caso specifico possiamo dimostrare che la funzione ha effettivamente un minimo globale e che questo minimo è il punto che hai trovato tu. Nota che dimostrare l'esistenza di un minimo globale è una cosa che va fatta sempre, anche per funzioni di un'unica variabile, prima di applicare il criterio 'il minimo è tra i punti dove si annulla la derivata': una funzione come $\frac{1}{1+x^2}$ non ha un minimo globale, e quindi difficilmente troverai il punto di minimo calcolando delle derivate. Allora, perché la nostra funzione ha un minimo globale? Sostanzialmente perché "all'infinito" diverge a più infinito. Più precisamente, io dico che - ad esempio - per $\vec{X}$ a grande distanza dall'origine si ha $f(\vec{X}) \geq ||\vec{X}||^2$. E questa è una conseguenza ovvia di Cauchy-Schwarz: infatti
\[
\left| f(\vec{X}) \right|= \left| 3 ||\vec{X}||^2 - 2\vec{v} \cot \vec{X} \right| \geq 3 ||\vec{X}||^2 - 2\vec{v} \cot \vec{X} \geq 3 ||\vec{X}||^2 - 2 ||\vec{v}|| ||\vec{X}||=||\vec{X}|| \left( 3||\vec{X}|| - 2 ||\vec{v}|| \right),
\]
e quando $||\vec{X}||$ è sufficientemente grande (in particolare, maggiore di $||\vec{v}||$) il termine $ \left( 3||\vec{X}|| - 2 ||\vec{v}|| \right)$ è maggiore o uguale a $||\vec{X}||$. Sostengo inoltre che questo implichi che $f$ ha un minimo globale. Infatti chiama $M=f(0)$. Allora a distanza sufficientemente grande dall'origine, diciamo per $||\vec{X}||>R$, si ha $f(\vec{X})>M$. Quindi chiaramente tutti i punti che sono fuori dalla sfera di centro l'origine e raggio $R$ non possono essere punti di minimo, visto che in quei punti il valore di $f$ è più grande del valore di $f$ nell'origine. Quindi possiamo restringerci e cercare i punti di minimo all'interno della palla $||\vec{X}|| \leq R$. Ma [e qui mi spiace ma serve un vero teorema di analisi] questa palla è compatta (i.e. chiusa e limitata), per cui (per il teorema di Weierstrass) $f$
ristretta alla sfera assume un minimo assoluto. Ricapitolando, abbiamo mostrato che fuori da una certa palla la funzione assume valori 'grandi', e che dentro questa palla deve assumere minimo assoluto. Conseguentemente, la funzione assume minimo assoluto su tutto lo spazio, e questo minimo deve stare tra i punti 'critici', ovvero quelli dove si annullano tutte le derivate parziali. Ma l'unico punto dove si annullano tutte le derivate parziali è $\frac{1}{3}\vec{v}$, che quindi è il punto di minimo assoluto.
2.
L'equazione $y=0$. Qui la situazione è, se possibile, ancora peggiore: considera semplicemente la funzione $f \left(\vec{X} \right)=\vec{v} \cdot \vec{X}$, dove $\vec{v}$ è un certo vettore non-nullo fissato. In barba alla legge di annullamento del prodotto (che infatti ovviamente non vale per il prodotto scalare) hai una famiglia enorme di soluzioni: tutti i vettori ortogonali a $\vec{v}$! Ma anche nel tuo esempio, anche se abbiamo dimostrato sopra (sei convinto di questo fatto?) che tutte le soluzioni all'equazione $y=0$ devono stare 'ragionevolmente vicino' all'origine, ce ne sono comunque infinite. Per semplicità prendiamo $n=3$ e $\vec{v}=(3,0,0)$, e scriviamo come sopra $\vec{X}=(x_1,x_2,x_3)$. La tua equazione è allora $3 (x_1^2+x_2^2+x_3^2) - 6 x_1=0$. Prendi come $x_1$ un reale qualsiasi nell'intervallo $(0,2)$. Allora l'equazione da risolvere diventa $x_2^2+x_3^2=x_1(2-x_1)$, e grazie alla nostra scelta di $x_1$ il membro destro è strettamente positivo. Ma allora (per questo $x_1$ fissato, cioè restringendosi ad un certo 'piano coordinato') ci è venuta fuori l'equazione di una circonferenza di raggio positivo, sulla quale ci sono ovviamente infiniti punti a coordinate reali!