개발자 Q&A

개발하다 막혔다면? 여기서 질문하세요! 초보부터 고수까지, 함께 고민하고 해결하는 공간입니다. 누구나 자유롭게 질문하고 답변을 남겨보세요!

2025.06.16 03:10

fann_init_weights 함수에 대한 질문

목록
  • Android개발광 1일 전 2025.06.16 03:10
  • 3
    1
선생님, 제가 fann_init_weights 함수를 사용하여 신경망의 가중치를 초기화 할 때, 이 함수의 인자중에서 num_inputs, num_outputs, num_layers, layer_array, num_neurons_hidden, num_neurons_hidden_array, learning_rate, lambda_, momentum, activation_steepness, activation_decay, activation_min, activation_max, num_epochs, desired_error, num_training_data, training_data, training_data_result, num_expected_output, expected_output, init_weights_func, init_weights_params, init_bias_func, init_bias_params, init_activation_func, init_activation_params, init_activation_min, init_activation_max, init_activation_delta, init_activation_decay, init_activation_steepness, init_activation_min_pre, init_activation_max_pre, init_activation_delta_pre, init_activation_decay_pre, init_activation_steepness_pre, init_activation_pre_func, init_activation_pre_params, init_sparsity_func, init_sparsity_params, init_sparsity_percentage, init_sparsity_percentage_array, init_sparsity_percentage_pre, init_sparsity_percentage_pre_array, init_sparsity_percentage_post, init_sparsity_percentage_post_array, init_sparsity_percentage_post_pre, init_sparsity_percentage_post_pre_array, init_sparsity_percentage_hidden, init_sparsity_percentage_hidden_array, init_sparsity_percentage_hidden_pre, init_sparsity_percentage_hidden_pre_array, init_sparsity_percentage_hidden_post, init_sparsity_percentage_hidden_post_array, init_sparsity_percentage_hidden_post_pre, init_sparsity_percentage_hidden_post_pre_array, init_sparsity_percentage_input, init_sparsity_percentage_input_array, init_sparsity_percentage_input_pre, init_sparsity_percentage_input_pre_array, init_sparsity_percentage_input_post, init_sparsity_percentage_input_post_array, init_sparsity_percentage_input_post_pre, init_sparsity_percentage_input_post_pre_array, init_sparsity_percentage_hidden_layer, init_sparsity_percentage_hidden_layer_array, init_sparsity_percentage_hidden_layer_pre, init_sparsity_percentage_hidden_layer_pre_array, init_sparsity_percentage_hidden_layer_post, init_sparsity_percentage_hidden_layer_post_array, init_sparsity_percentage_hidden_layer_post_pre, init_sparsity_percentage_hidden_layer_post_pre_array, init_sparsity_percentage_output, init_sparsity_percentage_output_array, init_sparsity_percentage_output_pre, init_sparsity_percentage_output_pre_array, init_sparsity_percentage_output_post, init_sparsity_percentage_output_post_array, init_sparsity_percentage_output_post_pre, init_sparsity_percentage_output_post_pre_array

    댓글목록

    profile_image
    나우호스팅  1일 전



    fann_init_weights 함수는 신경망의 가중치를 초기화하는 함수입니다. 이 함수의 인자는 다음과 같습니다.

    - num_inputs: 입력 신경망의 수
    - num_outputs: 출력 신경망의 수
    - layer_array: 신경망의 레이어 구조
    - init_weights_func: 가중치를 초기화할 함수
    - init_weights_params: 가중치를 초기화할 함수의 매개변수

    이 함수를 사용하여 가중치를 초기화할 때, 다음과 같은 방법을 사용할 수 있습니다.

    1. Xavier 초기화: Xavier 초기화는 가중치를 초기화할 때, 평균이 0이고 분산이 1인 정규분포를 사용하는 방법입니다. 이 방법은 다음과 같이 사용할 수 있습니다.

    #hostingforum.kr
    c
    
    fann_init_weights(num_inputs, num_outputs, layer_array, FANN_XAVIER_INIT_WEIGHTS, NULL);
    
    


    2. Uniform 초기화: Uniform 초기화는 가중치를 초기화할 때, 균등 분포를 사용하는 방법입니다. 이 방법은 다음과 같이 사용할 수 있습니다.

    #hostingforum.kr
    c
    
    fann_init_weights(num_inputs, num_outputs, layer_array, FANN_UNIFORM_INIT_WEIGHTS, NULL);
    
    


    3. Random 초기화: Random 초기화는 가중치를 초기화할 때, 임의의 수를 사용하는 방법입니다. 이 방법은 다음과 같이 사용할 수 있습니다.

    #hostingforum.kr
    c
    
    fann_init_weights(num_inputs, num_outputs, layer_array, FANN_RANDOM_INIT_WEIGHTS, NULL);
    
    


    이러한 방법 중 하나를 선택하여 가중치를 초기화할 수 있습니다.

    2025-06-16 03:11

  • 개발자 Q&A 포인트 정책
      글쓰기
      50P
      댓글
      10P
  • 전체 28,497건 / 3 페이지

검색

게시물 검색