개소리 왈왈/블로그2021. 4. 22. 23:11

현재 추세라면.. 토요일에나 가능할 숫자 ㅠㅠ

혹시 모르니 남겨주시면 감사하겠습니다!?!? ㅠㅠ

 

Posted by 구차니

댓글을 달아 주세요

전반적으로 20대 남성 강아지화 전략 같긴한데

솔찍히 말해서 출산율 낮아지고 주적이 북한에서 일본/중국으로 바뀌게 되면 모병은 여전히 불가능하고 징병이 될 건데

그 인원은 그럼 인구의 절반에서 끌어낼 수 밖에 없으니 필연적으로 여성징병제가 대두 될 수 밖에 없다.

"젠더 갈등식 접근은 안돼" 같은 체리피킹 소리만 해대고 있으니..

 

"'이대남' 달래려 '이대녀' 피해주나요"..여성징병제 주장 확산일로

[링크 : http://news.v.daum.net/v/20210420170607259]

 

"여자도 군대가라" 靑청원 12만명 넘어..여성계 "젠더 갈등식 접근은 안돼"

[링크 : http://news.v.daum.net/v/20210420174503677]

 

 

 

그 와중에 남녀 갈라치는 기사가 부쩍 이번 보궐선거 이후로 늘어난 느낌.

 

"이거 페미용어 아닌가요?" 온라인서 '좌표' 찍는 남성들

[링크 : http://news.v.daum.net/v/20210420153908540]

 

"남자들 죽었으면"에 '남혐 딱지'..선 넘은 '웹툰' 낙인찍기

[링크 : http://news.v.daum.net/v/20210420154058620]

 

채용 공고에 '페미니스트 아닌 자'..도 넘은 성차별 사상 검증

[링크 : http://news.v.daum.net/v/20210420063245939]

 

 

 

 

'개소리 왈왈 > 페미니즈음' 카테고리의 다른 글

여자도 군대가라 season 2?  (0) 2021.04.20
여자도 군대가라?  (0) 2021.04.19
인형매춘?  (0) 2021.04.15
관음충의 발생학?  (2) 2021.03.24
뷔페니즘 비판기사  (2) 2019.05.03
소녀들에게 완벽이 아닌 용기를 가르치세요 ted 강연  (2) 2019.04.22
Posted by 구차니

댓글을 달아 주세요

embeded/raspberry pi2021. 4. 20. 10:07

2.5mm / 25mm 정도면 충분할 듯

회사에 있는게 죄다 3mm 인지 안들어감 ㅠㅠ

 

[링크 : https://blog.naver.com/21ahn/221815413238]

[링크 : https://www.eleparts.co.kr/goods/view?no=4245184]

'embeded > raspberry pi' 카테고리의 다른 글

라즈베리 파이 서포트 규격  (0) 2021.04.20
fbset geometry, timing 수치  (0) 2021.02.19
rpi pico  (0) 2021.01.31
라즈베리에 GUI 환경 설치하기  (0) 2021.01.11
rpi youtube  (0) 2020.12.24
mpicc on rpi  (0) 2020.12.15
Posted by 구차니

댓글을 달아 주세요

여자들 편가르고 싸워대는거 보면

정말 진지하게 여자들 군대 징병으로 가게 될 경우 혼성부대 가는게 사는 길일지도?

 

(진지한 속내)

나 같으면 자살한다 ㅋㅋㅋ 절로 나오는 시츄에이숑! 웰컴투헬!!!!

[링크 : http://news.v.daum.net/v/20210419190121702]

 

'개소리 왈왈 > 페미니즈음' 카테고리의 다른 글

여자도 군대가라 season 2?  (0) 2021.04.20
여자도 군대가라?  (0) 2021.04.19
인형매춘?  (0) 2021.04.15
관음충의 발생학?  (2) 2021.03.24
뷔페니즘 비판기사  (2) 2019.05.03
소녀들에게 완벽이 아닌 용기를 가르치세요 ted 강연  (2) 2019.04.22
Posted by 구차니

댓글을 달아 주세요

tensorflow model 뒤져보다 보니 lstm 이라는 용어는 본적이 있는데

귀찮아서 넘기다가 이번에도 또 검색중에 걸려나와서 조사.

 

RNN(Recurrent nerural network) 에서 사용하는 기법(?)으로 문맥을 강화해주는 역활을 하는 듯.

 

[링크 : http://euzl.github.io/hackday_1/]

[링크 : https://en.wikipedia.org/wiki/Long_short-term_memory]

 

'프로그램 사용 > yolo_tensorflow_golo' 카테고리의 다른 글

LSTM - Long short-term memory  (0) 2021.04.16
quantization: 0.003921568859368563 * q  (0) 2021.04.15
tflite_converter quantization  (0) 2021.04.14
tensorboard graph  (0) 2021.04.14
generate_tfrecord.py  (0) 2021.04.13
Learning without Forgetting (LwF)  (0) 2021.04.12
Posted by 구차니

댓글을 달아 주세요

tflite로 변환시 unit8로 양자화 하면

분명 범위는 random으로 들어가야 해서 quantization 범위가 조금은 달라질 것으로 예상을 했는데

항상 동일한 0.003921568859368563 * q로 나와 해당 숫자로 검색을 하니

0~255 범위를 float로 정규화 하면 해당 숫자가 나온다고..

 

0.00392 * 255 = 0.9996 이 나오긴 하네?

quantization of input tensor will be close to (0.003921568859368563, 0). mean is the integer value from 0 to 255 that maps to floating point 0.0f. std_dev is 255 / (float_max - float_min). This will fix one possible problem

[링크 : https://stackoverflow.com/questions/54830869/]

[링크 : https://github.com/majidghafouri/Object-Recognition-tf-lite/issues/1]

 

+

output_format: Output file format. Currently must be {TFLITE, GRAPHVIZ_DOT}. (default TFLITE)
quantized_input_stats: Dict of strings representing input tensor names mapped to tuple of floats representing the mean and standard deviation of the training data (e.g., {"foo" : (0., 1.)}). Only need if inference_input_type is QUANTIZED_UINT8. real_input_value = (quantized_input_value - mean_value) / std_dev_value. (default {})
default_ranges_stats: Tuple of integers representing (min, max) range values for all arrays without a specified range. Intended for experimenting with quantization via "dummy quantization". (default None)
post_training_quantize: Boolean indicating whether to quantize the weights of the converted float model. Model size will be reduced and there will be latency improvements (at the cost of accuracy). (default False)

[링크 : http://man.hubwiz.com/.../python/tf/lite/TFLiteConverter.html]

 

TOCO(Tensorflow Lite Optimized Converter)

[링크 : https://junimnjw.github.io/%EA%B0%9C%EB%B0%9C/2019/08/09/tensorflow-lite-2.html]

'프로그램 사용 > yolo_tensorflow_golo' 카테고리의 다른 글

LSTM - Long short-term memory  (0) 2021.04.16
quantization: 0.003921568859368563 * q  (0) 2021.04.15
tflite_converter quantization  (0) 2021.04.14
tensorboard graph  (0) 2021.04.14
generate_tfrecord.py  (0) 2021.04.13
Learning without Forgetting (LwF)  (0) 2021.04.12
Posted by 구차니

댓글을 달아 주세요

기존에 KT LTE 23.1로 6600원 내고 쓰고 있었는데 가격이 더 내렸네

하지만 프로모션 요금이라 KT에서 KT로 갈수는 없으니

 

SK로 점프!

300분 / 300건 / 10G 라서 이전의 2.5 + 11G = 13.5GB에 비하면 많이 부족하지만..

그래도 6600원 빠지고 전화시간 300분으로 늘어나는게 어디야 ㅠㅠ

 

KT LTE egg 11G 도 없애야지!

'개소리 왈왈 > 직딩의 비애' 카테고리의 다른 글

요금제 변경 준비!  (0) 2021.04.15
야 너두 6천?  (2) 2021.04.01
arm 서버  (0) 2021.03.15
지하철 타고 오다가 쿨쿨  (0) 2021.03.10
결정세액 0원이 좋은게 아니었나?  (0) 2021.02.26
계단 오르기  (0) 2021.02.21
Posted by 구차니

댓글을 달아 주세요

조선일보 1평방 침대엔 170cm 리얼돌이.. 동네로 퍼지는 '인형매춘'
강다은 기자 입력 2021. 04. 15. 03:0

[링크 : https://news.v.daum.net/v/20210415030353979]

 

매춘 - 돈을 받고 성관계를 해 줌.

[링크 : https://krdict.korean.go.kr/dicSearch/SearchView?wordMatchFlag=N...&ParaWordNo=55741...]

 

성행위 - 남자와 여자가 성기를 통하여 육체적으로 관계를 맺음.

[링크 : https://krdict.korean.go.kr/dicSearch/SearchView?wordMatchFlag=N...&ParaWordNo=85320...]

 

매춘은 돈을 받고 성행위를 하는 것이고

성행위는 남장와 여자가 성기를 통해 관계를 맺는 것이면

인형은 인간의 형상을 따랐을 뿐 성별이 없는 물건인데 그렇다면 성행위 라는 것 자체가 성립되지 않는 것 아닌가?

(이렇게 적고 보니 2d 캐릭도 인간으로 만들어 버렸던 만행이 떠오르네)

 

 

그렇다면 성행위도 아니고 유사성행위로 간주하더라도 대상 자체가 돈을 받는건 아니니

매춘이라고 하기에는 애매하지 않나? (곰은 재주 넘고 돈은 딴놈이 챙기는 ...?)

'개소리 왈왈 > 페미니즈음' 카테고리의 다른 글

여자도 군대가라 season 2?  (0) 2021.04.20
여자도 군대가라?  (0) 2021.04.19
인형매춘?  (0) 2021.04.15
관음충의 발생학?  (2) 2021.03.24
뷔페니즘 비판기사  (2) 2019.05.03
소녀들에게 완벽이 아닌 용기를 가르치세요 ted 강연  (2) 2019.04.22
Posted by 구차니

댓글을 달아 주세요

이것저것.. 원본 소스까지 뒤지고 있는데 이렇다 할 원하는 답이 안보인다.

[링크 : https://www.tensorflow.org/model_optimization/guide/quantization/training]

[링크 : https://www.tensorflow.org/model_optimization/guide/quantization/training_example]

[링크 : https://github.com/tensorflow/.../lite/g3doc/performance/post_training_quantization.md]

[링크 : https://github.com/tensorflow/.../lite/g3doc/performance/quantization_spec.md]

 

util_test.py

def _generate_integer_tflite_model(quantization_type=dtypes.int8):
  """Define an integer post-training quantized tflite model."""
  # Load MNIST dataset
  n = 10  # Number of samples
  (train_images, train_labels), (test_images, test_labels) = \
      tf.keras.datasets.mnist.load_data()
  train_images, train_labels, test_images, test_labels = \
      train_images[:n], train_labels[:n], test_images[:n], test_labels[:n]

  # Normalize the input image so that each pixel value is between 0 to 1.
  train_images = train_images / 255.0
  test_images = test_images / 255.0

  # Define TF model
  model = tf.keras.Sequential([
      tf.keras.layers.InputLayer(input_shape=(28, 28)),
      tf.keras.layers.Reshape(target_shape=(28, 28, 1)),
      tf.keras.layers.Conv2D(filters=12, kernel_size=(3, 3), activation="relu"),
      tf.keras.layers.MaxPooling2D(pool_size=(2, 2)),
      tf.keras.layers.Flatten(),
      tf.keras.layers.Dense(10)
  ])

  # Train
  model.compile(
      optimizer="adam",
      loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
      metrics=["accuracy"])

  model.fit(
      train_images,
      train_labels,
      epochs=1,
      validation_split=0.1,
  )

  # Convert TF Model to an Integer Quantized TFLite Model
  converter = tf.lite.TFLiteConverter.from_keras_model(model)
  converter.optimizations = {tf.lite.Optimize.DEFAULT}
  def representative_dataset_gen():
    for _ in range(2):
      yield [
          np.random.uniform(low=0, high=1, size=(1, 28, 28)).astype(
              np.float32)
      ]
  converter.representative_dataset = representative_dataset_gen
  if quantization_type == dtypes.int8:
    converter.target_spec.supported_ops = {tf.lite.OpsSet.TFLITE_BUILTINS_INT8}
  else:
    converter.target_spec.supported_ops = {
        tf.lite.OpsSet
        .EXPERIMENTAL_TFLITE_BUILTINS_ACTIVATIONS_INT16_WEIGHTS_INT8
    }
  tflite_model = converter.convert()

  return tflite_model

 

lite_v2_test.py

  def _getIntegerQuantizeModel(self):
    np.random.seed(0)

    root = tracking.AutoTrackable()

    @tf.function(
        input_signature=[tf.TensorSpec(shape=[1, 5, 5, 3], dtype=tf.float32)])
    def func(inp):
      conv = tf.nn.conv2d(
          inp, tf.ones([3, 3, 3, 16]), strides=[1, 1, 1, 1], padding='SAME')
      output = tf.nn.relu(conv, name='output')
      return output

    def calibration_gen():
      for _ in range(5):
        yield [np.random.uniform(-1, 1, size=(1, 5, 5, 3)).astype(np.float32)]

    root.f = func
    to_save = root.f.get_concrete_function()
    return (to_save, calibration_gen)


 def testInvalidIntegerQuantization(self, is_int16_quantize,
                                     inference_input_output_type):
    func, calibration_gen = self._getIntegerQuantizeModel()

    # Convert quantized model.
    quantized_converter = lite.TFLiteConverterV2.from_concrete_functions([func])
    quantized_converter.optimizations = [lite.Optimize.DEFAULT]
    quantized_converter.representative_dataset = calibration_gen
    if is_int16_quantize:
      quantized_converter.target_spec.supported_ops = [
          lite.OpsSet.\
          EXPERIMENTAL_TFLITE_BUILTINS_ACTIVATIONS_INT16_WEIGHTS_INT8,
          lite.OpsSet.TFLITE_BUILTINS
      ]
    with self.assertRaises(ValueError) as error:
      quantized_converter.inference_input_type = dtypes.int8
      quantized_converter.inference_output_type = dtypes.int8
      quantized_converter.convert()
    self.assertEqual(
        'The inference_input_type and inference_output_type '
        "must be in ['tf.float32', 'tf.int16'].", str(error.exception))


  def testCalibrateAndQuantizeBuiltinInt16(self):
    func, calibration_gen = self._getIntegerQuantizeModel()

    # Convert float model.
    float_converter = lite.TFLiteConverterV2.from_concrete_functions([func])
    float_tflite_model = float_converter.convert()
    self.assertIsNotNone(float_tflite_model)

    converter = lite.TFLiteConverterV2.from_concrete_functions([func])
    # TODO(b/156309549): We should add INT16 to the builtin types.
    converter.optimizations = [lite.Optimize.DEFAULT]
    converter.target_spec.supported_ops = [lite.OpsSet.TFLITE_BUILTINS_INT8]
    converter.representative_dataset = calibration_gen
    converter._experimental_calibrate_only = True
    calibrated_tflite = converter.convert()
    quantized_tflite_model = mlir_quantize(
        calibrated_tflite, inference_type=_types_pb2.QUANTIZED_INT16)

    self.assertIsNotNone(quantized_tflite_model)

    # The default input and output types should be float.
    interpreter = Interpreter(model_content=quantized_tflite_model)
    interpreter.allocate_tensors()
    input_details = interpreter.get_input_details()
    self.assertLen(input_details, 1)
    self.assertEqual(np.float32, input_details[0]['dtype'])
    output_details = interpreter.get_output_details()
    self.assertLen(output_details, 1)
    self.assertEqual(np.float32, output_details[0]['dtype'])

    # Ensure that the quantized weights tflite model is smaller.
    self.assertLess(len(quantized_tflite_model), len(float_tflite_model))

'프로그램 사용 > yolo_tensorflow_golo' 카테고리의 다른 글

LSTM - Long short-term memory  (0) 2021.04.16
quantization: 0.003921568859368563 * q  (0) 2021.04.15
tflite_converter quantization  (0) 2021.04.14
tensorboard graph  (0) 2021.04.14
generate_tfrecord.py  (0) 2021.04.13
Learning without Forgetting (LwF)  (0) 2021.04.12
Posted by 구차니

댓글을 달아 주세요

Linux/Ubuntu2021. 4. 14. 18:59

서비스로 만들어서 넣거나

자동 로그인 켜거나

 

[링크 : https://askubuntu.com/questions/636270/vino-vnc-server-unable-to-start-on-startup]

'Linux > Ubuntu' 카테고리의 다른 글

vino server without login  (0) 2021.04.14
ubuntu gnome-control-center over ssh  (0) 2021.04.14
우분투 패키지 버전 확인하기  (0) 2020.12.16
ubuntu 20.04 한글입력기  (2) 2020.12.07
/dev/ipmi를 보고 싶다!!!  (0) 2020.11.07
우분투에서 부팅 USB 만들기(iso)  (0) 2020.10.06
Posted by 구차니

댓글을 달아 주세요