PYTHON

    Frobenius Norm 이란 무엇인가? Numpy, TensorFlow, PyTorch에서의 Frobenius Norm 계산법 알아보기

    Frobenius Norm 이란 무엇인가? Numpy, TensorFlow, PyTorch에서의 Frobenius Norm 계산법 알아보기

    Frobenius Norm 이란 무엇인가?Frobenius Norm은 행렬의 크기를 측정하는데 사용하는 Norm으로 행렬의 모든 원소를 제곱한 값을 합한 다음 제곱근을 한 값으로 정의된다. 벡터의 L2 Norm(유클리드 놈)을 행렬에 적용한 형태이다. 수식은 다음과 같다. $$\| X \|_F = \sqrt{\sum_{i=1}^{m} \sum_{j=1}^{n} |x_{ij}|^2}$$ 예를 들어 다음과 같은 행렬이 주어 졌을 때 $A = \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}$ Frobenius Norm은 다음과 같이 계산된다. $\| A \|_F = \sqrt{1^2 + 2^2 + 3^2 + 4^2 + 5^2 + 6^2} = \sqrt{1 + 4 ..

    벡터 전치(Vector Transposition) 알아보기: Tensorflow, Pytorch, Numpy

    벡터 전치(Vector Transposition) 알아보기: Tensorflow, Pytorch, Numpy

    벡터 전치(Vector Transposition)란 무엇인가?벡터 전치(vector transposition)는 벡터의 행과 열을 교환하는 연산이다. 특정 벡터 $\mathbf{v}$ 가 있다고 했을 때 이 벡터에 대한 전치 연산은 $\mathbf{v}^T$ 로 표현되며, 행 벡터를 열 벡터로 바꿀 때 자주 사용된다. 행 벡터 (Row Vector): $\mathbf{v} = \begin{bmatrix} v_1 & v_2 & v_3 & \cdots & v_n \end{bmatrix}$열 벡터 (Column Vector): $\mathbf{v}^T = \begin{bmatrix} v_1 \\ v_2 \\ v_3 \\ \vdots \\ v_n \end{bmatrix}$ 벡터 전치가 일어나면, 행과 열이 교..