Честно - ни разу не приходилось использовать двухбайтную кодировку, поэтому на это я внимание не обращал :) Но только сейчас перечитал, что возвращает оно длину в символах, а не в байтах. А в скольки примерах, на память, на это обращается внимание ? И получается, что на самом деле в UTF-8 вообще все что мы можем сказать про взаимоотношение strlen и sizeof (sizeof здесь в контексте обсуждения, а не тот который в C) , так это: 0 < strlen(&s[]) < sizeof(s[])
Т.е. ты хочешь сказать, это у меня в голове бардак - и на самом деле никакой ambiguity нет, и следует понимать "length" - это длина в "попугаях", а "size" - в "сантиметрах" ? Вполне возможно, подумавши :)
Comments 2
Reply
0 < strlen(&s[]) < sizeof(s[])
Т.е. ты хочешь сказать, это у меня в голове бардак - и на самом деле никакой ambiguity нет, и следует понимать "length" - это длина в "попугаях", а "size" - в "сантиметрах" ? Вполне возможно, подумавши :)
Reply
Leave a comment